Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Czeka nas rewolucja na rynku pamięci

Recommended Posts

Już w 2013 roku do sklepów mają trafić pierwsze chipy zbudowane na memrystorach. Zastąpią one układy flash i wyznaczą początek rewolucji na rynku układów pamięci.

Stan Williams z HP, współtwórca memrystora, występując podczas International Electronic Forum 2011 stwierdził, że w ciągu 18 miesięcy jego firma rozpocznie sprzedaż kości, które zastąpią flash. Na tym jednak nie koniec.

Być może w 2014, a na pewno w 2015 stworzymy konkurencję dla DRAM, a później zastąpimy SRAM - powiedział Williams.

O zastąpieniu flasha już zdecydowaliśmy. Teraz pracujemy nad DRAM i sądzimy, że nowe układy będą zużywały na każdy bit o dwa rzędy wielkości mniej energii potrzebnej do przełączania układu - dodał. Opracowana przez HP technologia pozwala na umieszczenie układu pamięci bezpośrednio na procesorze. Dzięki temu dane w ogóle nie opuszczają układu scalonego. To oznacza, że otrzymujemy poprawę szybkości działania odpowiadającą 20 latom obowiązywania Prawa Moore'a - stwierdził Williams. Dodał przy tym, że możliwe jest umieszczanie dowolnej liczby warstw podzespołów o grubości 5 nanometrów każda. W jednej takiej warstwie może znaleźć się nawet 500 miliardów memrystorów.

Przedstawiciel HP zapowiada wielkie zmiany na rynku. Jesteśmy największym na świecie kupcem pamięci DRAM i drugim co do wielkości nabywcą układów flash. Chcemy całkowicie przeorganizować nasz łańcuch dostaw. Mamy zamiar licencjonować naszą technologię każdemu chętnemu. Jednak trzeba będzie poczekać w kolejce. Bardzo wiele osób jest tym zainteresowanych. Zdecydowaliśmy się na taki krok, gdyż, szczerze mówiąc, nie widzimy zbyt wielu innowacji na tym rynku - zapowiedział.

Memrystor zwany jest inaczej opornikiem pamięci. Zapamiętuje on skąd i ile informacji przepływa, sam usprawnia swoje działanie tak, by przepływ był jak najbardziej wydajny. Potrafi też zmieniać oporność w zależności od wartości  i kierunku przyłożonego napięcia. Zapamiętuje również oporność po odłączeniu zasilania. Dzięki tym właściwościom pojedynczy memrystor może działać jak wiele (od 7 do 12) tranzystorów, pozwoli też na skonstruowanie mniejszej, tańszej, szybszej i bardziej energooszczędnej pamięci flash. Niewykluczone, że memrystory pozwolą również na zrewolucjonizowanie rynku układów FPGA - czyli programowalnych układów scalonych, które na bieżąco można dostosowywać do zadań, które mają wykonać. FPGA są niezwykle drogie, duże i powolne. Być może dzięki memrystorom pozbędziemy się ich wad, a zachowamy zalety.

Jakby jeszcze tego było mało  badacze z HP stwierdzili, że memrystory są bardziej przydatne niż przypuszczano. Okazało się bowiem, że są one w stanie nie tylko zapamiętywać dane, ale również przeprowadzać obliczenia. To z kolei oznacza, że zamiast budować osobne procesory możliwe będzie wykonywanie obliczeń przez same kości pamięci.

Share this post


Link to post
Share on other sites

W końcu coś się ruszyło.

Już się zastanawiałem czy którykolwiek z wynalazków pamięci nieulotnej ujrzy w końcu światło dzienne czy też wszystkie skończą w zapomnieniu tak jak monitory SED (o ile dobrze pamiętam nazwę)

Share this post


Link to post
Share on other sites

Że tak bezczelnie odkopię temat...

Ktoś słyszał by rzeczywiście coś się działo w tej kwestii?

Share this post


Link to post
Share on other sites

Dołączam się do pytania.

Tutaj jest trochę:

http://www.theregister.co.uk/2014/06/11/hp_memristor_the_machine/

Generalnie od paru lat słyszy się o masie nowych technologii które jakoś bardzo opornie wchodzą w życie.

Podejrzewam że artykuły są pisane aby przyciągnąć biznes dlatego są tak optymistyczne.

Tak samo jak o memrystory można pytać o grafen, komputery kwantowe, optyczne, super baterie, kondensatory itd.

Share this post


Link to post
Share on other sites

Jak to się mówi - podbijam. Gdzie te memrystorowe chipy :D w sklepach

 

Zastąpią one układy flash i wyznaczą początek rewolucji na rynku układów pamięci.

Gdzie ten początek rewolucji.

Edited by thikim

Share this post


Link to post
Share on other sites

Jestem pewien, że za jakieś 5 lat i za następne 5 lat ktoś znowu podbije… ;) Często rewelacyjny przełom okazuje się trudniejszy do zastosowania w praktyce, ale częściej raczej jest to "rynek nie jest gotowy" - czyt. nie opłaca się inwestować, sprzedajemy po starej technologii póki konkurencja nas nie dogoni.

Share this post


Link to post
Share on other sites

Nie spodziewam się, że to szybko trafi an rynek konsumencki, ale cokolwiek, gdziekolwiek mogłoby być wykorzystywane po takim czasie i obietnicach... Choćby jakieś superkomputery.

Share this post


Link to post
Share on other sites

Rynek raczej zawsze jest "gotowy". Niekoniecznie opłaca się gwałtowne podnoszenie cen, skoro taniej można sprzedawać "stare" technologie. Gratuluję pewności. ;)

Share this post


Link to post
Share on other sites

Nie zawsze jest gotowy. Kwestia ilości zaoszczędzonego kapitału i alternatywnych dróg inwestowania. No a w dzisiejszych czasach dochodzi jeszcze majstrowanie przy walutach.

Share this post


Link to post
Share on other sites

@Astroboy,

Słyszałeś, że płyty DVD wynaleziono niemal równocześnie z płytami CD? Nie wprowadzono ich wówczas na rynek głównie dlatego, że nikt nie potrzebował napędu optycznego o pojemności większej niż większość dysków twardych w domach :)

 

Edit: Nie wiem ile w tym prawdy, ale taka plota swego czasu krążyła.

Share this post


Link to post
Share on other sites

Trochę błądzisz, bo nie lubię dyskutować z teoriami spiskowymi. ;) Doskonale za to pamiętam, gdy technologia zapisu MOD (całkiem wdzięczna – do dziś posiadam trzy takie dyski 3,5 cala) konkurowała (były to raptem miesiące) z zapisem CDR. Okazała się zbyt droga i dziś już niemal nikt o tym nie pamięta. ;)

Share this post


Link to post
Share on other sites

Ja pamiętam. Co do CD  i DVD. Technologia jest podobna, więc sam pomysł mógł powstać w podobnym czasie, ale nie realizacja.

Z drugiej strony jednak muszę przyznać że jeśli ktoś zabiera się za nową technologię to w jego interesie i tej technologii jest przyciągnąć ludzi, inwestorów, zrobić reklamę. Stąd pewnie te nazbyt optymistyczne artykuły. Twórca musi być optymistą. Dziennikarz powinien być jednak realistą i raczej powinien pisać chłodniej (no chyba że mu płacą drugą pensję):

Zamiast:

 

Już w 2013 roku do sklepów mają trafić pierwsze chipy zbudowane na memrystorach. Zastąpią one układy flash i wyznaczą początek rewolucji na rynku układów pamięci.

powinno być:

 

Stan Wiliams z HP zapowiedział, że w 2013 roku pojawią się pierwsze .... należy w to wątpić...

Tylko że wówczas artykuł byłby mniej poczytny, co z tego że prawdziwszy.

Edited by thikim

Share this post


Link to post
Share on other sites

Raczej powinno być 

 

Stan Wiliams z HP zapowiedział, że w 2013 roku ma nadzieję wprowadzić na rynek...

Znaczy to samo, a nie podważa słów producenta, a jednocześnie lepiej wygląda stylistycznie.

Share this post


Link to post
Share on other sites

No nie pogo.

Jak możesz komuś wkładać w usta coś czego nie powiedział? To nie znaczy to samo.

Dziennikarz ma prawo wyrazić swoją opinię, ale pisać że ktoś "zapowiedział że ma nadzieję" jak ktoś "stwierdził". To byłoby po prostu kłamstwo.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      HP ma zamiar stworzyć do 2017 roku 256-rdzeniowy procesor Corona, którego rdzenie będą komunikowały się ze sobą za pomocą łączy optycznych. Taka kość miałaby wykonywać 10 biliardów operacji zmiennoprzecinkowych na sekundę, zatem wydajność pięciu układów dorównywałaby wydajności współczesnych superkomputerów. Poszczególne rdzenie wymieniałyby dane z prędkością 20 terabitów na sekundę, a komunikacja między procesorem a pamięcią odbywałaby się z prędkością 10 Tb/s. Co więcej Corona zużywałaby znacznie mniej energii niż współczesne układy, dzięki czemu superkomputerom łatwiej będzie pokonać barierę eksaflopsa (1018 operacji zmiennoprzecinkowych na sekundę).
      Obecnie istnieją dwa główne problemy, które znacznie utrudniają zwiększanie wydajności układów scalonych w dotychczasowym tempie. Im więcej rdzeni w procesorze, tym trudniej jest koordynować ich pracę i komunikować je ze sobą. Bardzo trudno jest uzyskać układ posiadający więcej niż 16 rdzeni, który pracowałby jak procesor równoległy. Drugi poważny problem to olbrzymi pobór mocy, który ma miejsce podczas przesyłania danych od i do układów pamięci.
      Obie te przeszkody można rozwiązać za pomocą zintegrowanej fotoniki, czyli laserów i łączy optycznych wbudowanych w układ scalony. Przykładem takiej kości może być zaprezentowany właśnie przez IBM-a Holey Optochip. Nad podobnymi rozwiązaniami pracują też Intel (projekt Runnemede), Nvidia (Echelon), Sandia National Laboratory (X-calibur) czy MIT (Angstrom).
      Najważniejszą jednak rolę odgrywa zintegrowana fotonika w projekcie Corona. Problem w tym, że część potrzebnej technologii wciąż jeszcze nie została opracowana. Jednak co się powoli zmienia. Od dłuższego już czasu informujemy o postępach na tym polu. Przez ostatnie lata wiele firm pracowało nad poszczególnymi podzespołami, teraz zaczęto łączyć je w układy. To jak przejście od tranzystora do układu scalonego - stwierdził Marco Fiorentino z HP Labs.
      HP ma zamiar w każdy rdzeń Corony wbudować laser, który będzie wysyłał informacje do wszystkich innych rdzeni. Jak obliczają specjaliści wykorzystanie elektroniki do stworzenia 10-terabitowego kanału przesyłu danych pomiędzy CPU a pamięcią wymagałoby 160 watów mocy. Zdaniem HP, jeśli zastąpimy elektronikę zintegrowaną fotoniką, pobór mocy spadnie do 6,4 wata.
      Zmniejszenie poboru mocy to dla superkomputerów niezwykle istotna sprawa. Najpotężniejsza maszyna na świecie, japoński K Computer, potrzebuje obecnie do pracy 12,6 MW. Jego wydajność wynosi 10,5 PFlops, trzeba by ją zatem zwiększyć niemal 100-krotnie by osiągnąć barierę eksaflopsa.
      Zintegrowana fotonika przyczyni się również do obniżenia poboru mocy przez serwery i urządzenia telekomunikacyjne, co odgrywa olbrzymią rolę w internecie, którym przesyłamy coraz większą ilość danych. Z czasem lasery i łącza optyczne mogą trafić też do urządzeń przenośnych, pozwalający na ich dłuższą pracę bez potrzeby ładowania baterii. Również, co niezwykle istotne, w fotonice nie występuje problem interferencji elektromagnetycznej, zatem jej stosowanie np. w samochodach czy samolotach będzie bezpieczniejsze niż stosowanie urządzeń elektronicznych.
      Problemem jest też stworzenie miniaturowych laserów, które można będzie budować za pomocą dostępnych technologii. Jako, że z krzemu nie można generować światła, specjaliści badają inne materiały, przede wszystkim arsenek galu i fosforek indu. Ostatnio MIT zainteresował się też germanem.
      Trwają również intensywne prace nad rozwojem technologii TSV (through silicon vias). Pozwoli się ona pozbyć szyn, za pomocą których łączą się ze sobą poszczególne układy. Szyny stanowią dla danych wąskie gardło i zużywają sporo energii. TSV pozwala układać na sobie układy scalone (powstają w ten sposób układy 3D) i łączyć je kablami poprowadzonymi wewnątrz takiego stosu układów, co zwiększa przepustowość, a jednocześnie zmniejsza zużycie prądu i pozwala na zaoszczędzenie miejsca na płycie głównej.
      W projekcie Corona HP chce połączyć obie technologie - 3D i zintegrowaną fotonikę. Dzięki temu ma powstać 256-rdzeniowy procesor zbudowany z 64-rdzeniowych klastrów. Całość zostanie wykonana w procesie 16 nanometrów i będzie połączona łączami optycznymi.
    • By KopalniaWiedzy.pl
      Elpida Memory, trzeci co do wielkości producent układów DRAM, złożył w tokijskim sądzie wniosek o upadłość. Zadłużenie firmy sięgnęło 5,5 miliarda dolarów.
      W latach 2006-2007 znacząco zwiększono zdolności produkcyjne układów pamięci, co doprowadziło do nadmiernej podaży i gwałtownego spadku cen, trwającego do dzisiaj. Jak informuje iSuppli, obecnie ceny układów DRAM są o 50% niższe niż przed rokiem. Jakby tego było mało w roku 2008 rozpoczął się kryzys ekonomiczny, a silny jen oraz powodzie w Tajlandii dopełniły dzieła. Elpida nie była w stanie poradzić sobie z tak dużym nagromadzeniem niekorzystnych czynników.
      Na razie nie wiadomo, co stanie się z Elpidą. Jeśli firma całkowicie wstrzyma produkcję, to ceny układów pamięci wzrosną co zmusi producentów komputerów do podniesienia cen maszyn lub ograniczenia ilości stosowanej pamięci. Kłopoty mogą czekać również rynek urządzeń mobilnych, na którym margines zysku jest niewielki, więc zatrzymanie produkcji przez dużego dostawcę może oznaczać albo podniesienie cen, albo znaczący spadek zysku.
      W czwartym kwartale ubiegłego roku do Elpidy należało 15,4% rynku DRAM. Większymi graczami byli tylko Samsung (53%) i Hynix (22,9%).
    • By KopalniaWiedzy.pl
      Hewlett-Packard jest twórcą pierwszej na rynku stacji roboczej typu all-in-one. W 27-calowym wyświetlaczu zamknięto całą maszynę, w tym serwerowy procesor, kartę graficzną i zasilacz. Jin Zafarana, dyrektor HP ds. stacji roboczych powiedział, że klienci chcieli mieć więcej miejsca na biurkach, stąd pomysł na stację robocza all-in-one.
      Zdaniem Zafarany Z1 można porównać do Z800, najbardziej wydajnej stacji roboczej HP. „Dostarczamy moc stacji roboczej, ale bez obudowy typu tower“ - mówi Zafarana.
      W Z1 zastosowano procesor Xeon, kartę graficzną Nvidia Quadro oraz 400-watowy zasilacz. Urządzenie wyposażono w kamerę i porty USB 3.0. Jest tam też miejsce na dwa dyski twarde i czytnik Blu-ray. Użytkownik łatwo może zdemontować wyświetlacz i wymieniać poszczególne elementy.
    • By KopalniaWiedzy.pl
      Ze złożonych w sądzie dokumentów dowiadujemy się, że HP zapłacił Intelowi 690 milionów dolarów, by półprzewodnikowy koncern utrzymał produkcję i rozwój procesorów Itanium do roku 2017. Najpierw na podstawie umowy z 2008 roku HP zapłacił 440 milionów za przedłużenie życia Itanium do roku 2014. W 2010 roku obowiązywanie umowy przedłużono do 2017, a HP dopłacił 250 milionów USD.
      Producenci oprogramowania, tacy jak Microsoft czy Red Hat, zaprzestali rozwijania aplikacji dla architektury Itanium, gdyż wiedzą, że jej czas dobiega końca. Wielcy producenci sprzętu, jak Dell czy IBM już od lat nie oferują serwerów z Itanium. Nawet sam Intel przestał w ubiegłym roku wspierać Itanium w kompilatorach C/C++ i Fortrana. Co więcej, część swojego zespołu pracującego nad Itanium Intel skierował już do prac nad projektami związanymi z układami Xeon.
      HP potrzebuje utrzymania Itanium, gdyż jego najważniejsze produkty - HP-UX, OpenVMS czy NonStop - korzystają właśnie z niej i miną całe lata, zanim uda się stworzyć ich odpowiedniki dla Xeona. Koncern jednak musi się spieszyć. Sprzedaż platformy Itanium spada od wielu lat, a sztuczne utrzymywanie Itanium nie tylko kosztuje go setki milionów dolarów, które musi płacić Intelowi, ale naraża na szwank jego relacje z innymi firmami. O wysokości opłat wnoszonych na rzecz Intela dowiedzieliśmy się bowiem przy okazji sporu sądowego pomiędzy HP a Oracle’em. HP twierdzi, że Oracle złamał umowę zaprzestając produkcji oprogramowania dla Itanium, a zrobił to, by promować własne serwery z architekturą Sun SPARC. Oracle zaś twierdzi, że HP postępowało niewłaściwie, nie informując klientów o przyszłości Itanium. Przed trzema dniami sąd orzekł, że obie firmy postępowały niewłaściwie. HP, gdyż nie informował swoich partnerów, klientów i pracowników o planach dotyczących Itanium, a Oracle, gdyż wykorzystało fałszywy pretekst do zaprzestania produkcji programów dla Itanium w celu promowania platformy SPARC.
    • By KopalniaWiedzy.pl
      Elpida poinformowała o wyprodukowaniu pierwszego własnego prototypu pamięci ReRAM. Kość wykonano w technologii 50 nanometrów, a jej pojemność wynosi 64 megabity.
      ReRAM (Resistance Random Access Memory) to pamięć nieulotna zbudowana z materiałów, które zmieniają oporność w odpowiedzi na zmiany napięcia elektrycznego. Największą zaletą ReRAM jest niezwykle szybka praca przy bardzo niskim napięciu. Ma ona obie zalety pamięci DRAM, czyli szybką pracę, oraz pamięci flash, czyli możliwość przechowywania danych po odłączeniu zasilania. Czas zapisu danych na ReRAM wynosi około 10 nanosekund, czym dorównuje układom DRAM, jest za to znacznie bardziej wytrzymała niż flash, gdyż umożliwia dokonanie ponad miliona cykli zapisu/odczytu danych. Przed kilkoma miesiącami informowaliśmy o stworzeniu przez Samsunga prototypowej komórki ReRAM, wytrzymującej bilion cykli zapis/odczyt.
      Elpida ma nadzieję, że pierwsze przeznaczone do sprzedaży kości ReRAM rozpocznie produkować już w przyszłym roku. Mają być one wykonane w technologii 30 nm, a ich pojemność ma być liczona w gigabitach. ReRAM może stać się konkurentem powszechnie wykorzystywanych układów flash, szczególnie na rynku urządzeń przenośnych, gdzie duże znaczenie ma ilość energii potrzebnej do obsługi pamięci.
×
×
  • Create New...