Jump to content
Forum Kopalni Wiedzy

Recommended Posts

HP poinformowało o podpisaniu porozumienia z koreańską firmą Hynix Semiconductor, które przewiduje budowę fabryki memrystorów. Zakład ma rozpocząć produkcję w 2013 roku.

Memrystor to czwarty podstawowy element elektroniczny. Pierwsze takie urządzenie powstało w laboratoriach HP w 2008 roku.

Memrystor, zwany jest inaczej opornikiem pamięci. Zapamiętuje on skąd i ile informacji przepływa, sam usprawnia swoje działanie tak, by przepływ był jak najbardziej wydajny. Potrafi też zmieniać oporność w zależności od ilości i kierunku przyłożonego napięcia. Zapamiętuje też oporność po odłączeniu zasilania. Dzięki tym właściwościom pojedynczy memrystor może działać jak wiele (od 7 do 12) tranzystorów, pozwoli też na skonstruowanie mniejszej, tańszej, szybszej i bardziej energooszczędnej pamięci flash. Niewykluczone, że memrystory pozwolą również na zrewolucjonizowanie rynku układów FPGA - czyli programowalnych układów scalonych, które na bieżąco można dostosowywać do zadań, które mają wykonać. FPGA są niezwykle drogie, duże i powolne. Być może dzięki memrystorom pozbędziemy się ich wad, a zachowamy zalety.

Jakby jeszcze tego było mało przed zaledwie pięcioma miesiącami badacze z HP stwierdzili, że memrystory są bardziej przydatne niż przypuszczano. Okazało się bowiem, że są one w stanie nie tylko zapamiętywać dane, ale również przeprowadzać obliczenia. To z kolei oznacza, że zamiast budować osobne procesory możliwe będzie przeprowadzanie obliczeń przez same kości pamięci.

Porozumienie pomiędzy Hyniksem a HP nie idzie jednak aż tak daleko. Przewiduje ono wspólne prace nad pamięciami nieulotnymi typu ReRAM (Resistive Random Access Memory). Pamięci takie mają zapisywać dane zmieniając oporność pod wpływem przyłożonego napięcia.

Doktor Stan Williams, jeden z twórców memrystora, mówi, że nie chodzi tu tylko o memrystor. Mówimy też o architekturze, projektowaniu obwodów, mechanizmach korekcji błędów - wnosimy do umowy cały pakiet. Zespół z mojego laboratorium przeprowadzi się na jakiś czas do Korei. Chcemy, by gotowe produkty trafiły na rynek w najkrótszym możliwym czasie.

Przedstawiciele HP twierdzą, że pamięci wykorzystujące memrystory będą pracowały 10-krotnie szybciej i zużywały 10 razy mniej energii niż obecne układy flash. Ponadto, jak mówi Williams, ich żywotność nie będzie ograniczona cyklami zapisu. Ponadto przy tym samym koszcie produkcji pozwalają one na przechowywanie dwukrotnie większej ilości danych.

Zainteresowanie HP kośćmi pamięci nie powinno dziwić. HP jest przede wszystkim producentem sprzętu i praktycznie wszystko, co firma sprzedaje - od pecetów, poprzez drukarki po systemy dla korporacji - zawiera układy pamięci.

Share this post


Link to post
Share on other sites

może i dawno skończyłem elektrotechnikę na polibudzie (ze 3 lata będzie)... ale wciąż jestem przekonany, że memrystor to element obwodu a nie cały obwód...

Share this post


Link to post
Share on other sites

  <p>Memrystor to czwarty podstawowy typ obwodu elektrycznego. </p>

hmm jeżeli ten jest czwarty, co jakie są pozostałe 3? ;D Mostek prostowniczy? Wzmacniacz m.cz.? Zasilacz stabilizowany?? Przetwornica impulsowa ??

Zgadzam się z przedmówcą. Jest to czwarty podstawowy ELEMENT(obok rezystora kondensatora i cewki) a nie OBWÓD. Skąd autor wziął takie wyjaśnienie czym jest memrystor ? Wiki??.....

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      HP ma zamiar stworzyć do 2017 roku 256-rdzeniowy procesor Corona, którego rdzenie będą komunikowały się ze sobą za pomocą łączy optycznych. Taka kość miałaby wykonywać 10 biliardów operacji zmiennoprzecinkowych na sekundę, zatem wydajność pięciu układów dorównywałaby wydajności współczesnych superkomputerów. Poszczególne rdzenie wymieniałyby dane z prędkością 20 terabitów na sekundę, a komunikacja między procesorem a pamięcią odbywałaby się z prędkością 10 Tb/s. Co więcej Corona zużywałaby znacznie mniej energii niż współczesne układy, dzięki czemu superkomputerom łatwiej będzie pokonać barierę eksaflopsa (1018 operacji zmiennoprzecinkowych na sekundę).
      Obecnie istnieją dwa główne problemy, które znacznie utrudniają zwiększanie wydajności układów scalonych w dotychczasowym tempie. Im więcej rdzeni w procesorze, tym trudniej jest koordynować ich pracę i komunikować je ze sobą. Bardzo trudno jest uzyskać układ posiadający więcej niż 16 rdzeni, który pracowałby jak procesor równoległy. Drugi poważny problem to olbrzymi pobór mocy, który ma miejsce podczas przesyłania danych od i do układów pamięci.
      Obie te przeszkody można rozwiązać za pomocą zintegrowanej fotoniki, czyli laserów i łączy optycznych wbudowanych w układ scalony. Przykładem takiej kości może być zaprezentowany właśnie przez IBM-a Holey Optochip. Nad podobnymi rozwiązaniami pracują też Intel (projekt Runnemede), Nvidia (Echelon), Sandia National Laboratory (X-calibur) czy MIT (Angstrom).
      Najważniejszą jednak rolę odgrywa zintegrowana fotonika w projekcie Corona. Problem w tym, że część potrzebnej technologii wciąż jeszcze nie została opracowana. Jednak co się powoli zmienia. Od dłuższego już czasu informujemy o postępach na tym polu. Przez ostatnie lata wiele firm pracowało nad poszczególnymi podzespołami, teraz zaczęto łączyć je w układy. To jak przejście od tranzystora do układu scalonego - stwierdził Marco Fiorentino z HP Labs.
      HP ma zamiar w każdy rdzeń Corony wbudować laser, który będzie wysyłał informacje do wszystkich innych rdzeni. Jak obliczają specjaliści wykorzystanie elektroniki do stworzenia 10-terabitowego kanału przesyłu danych pomiędzy CPU a pamięcią wymagałoby 160 watów mocy. Zdaniem HP, jeśli zastąpimy elektronikę zintegrowaną fotoniką, pobór mocy spadnie do 6,4 wata.
      Zmniejszenie poboru mocy to dla superkomputerów niezwykle istotna sprawa. Najpotężniejsza maszyna na świecie, japoński K Computer, potrzebuje obecnie do pracy 12,6 MW. Jego wydajność wynosi 10,5 PFlops, trzeba by ją zatem zwiększyć niemal 100-krotnie by osiągnąć barierę eksaflopsa.
      Zintegrowana fotonika przyczyni się również do obniżenia poboru mocy przez serwery i urządzenia telekomunikacyjne, co odgrywa olbrzymią rolę w internecie, którym przesyłamy coraz większą ilość danych. Z czasem lasery i łącza optyczne mogą trafić też do urządzeń przenośnych, pozwalający na ich dłuższą pracę bez potrzeby ładowania baterii. Również, co niezwykle istotne, w fotonice nie występuje problem interferencji elektromagnetycznej, zatem jej stosowanie np. w samochodach czy samolotach będzie bezpieczniejsze niż stosowanie urządzeń elektronicznych.
      Problemem jest też stworzenie miniaturowych laserów, które można będzie budować za pomocą dostępnych technologii. Jako, że z krzemu nie można generować światła, specjaliści badają inne materiały, przede wszystkim arsenek galu i fosforek indu. Ostatnio MIT zainteresował się też germanem.
      Trwają również intensywne prace nad rozwojem technologii TSV (through silicon vias). Pozwoli się ona pozbyć szyn, za pomocą których łączą się ze sobą poszczególne układy. Szyny stanowią dla danych wąskie gardło i zużywają sporo energii. TSV pozwala układać na sobie układy scalone (powstają w ten sposób układy 3D) i łączyć je kablami poprowadzonymi wewnątrz takiego stosu układów, co zwiększa przepustowość, a jednocześnie zmniejsza zużycie prądu i pozwala na zaoszczędzenie miejsca na płycie głównej.
      W projekcie Corona HP chce połączyć obie technologie - 3D i zintegrowaną fotonikę. Dzięki temu ma powstać 256-rdzeniowy procesor zbudowany z 64-rdzeniowych klastrów. Całość zostanie wykonana w procesie 16 nanometrów i będzie połączona łączami optycznymi.
    • By KopalniaWiedzy.pl
      Hewlett-Packard jest twórcą pierwszej na rynku stacji roboczej typu all-in-one. W 27-calowym wyświetlaczu zamknięto całą maszynę, w tym serwerowy procesor, kartę graficzną i zasilacz. Jin Zafarana, dyrektor HP ds. stacji roboczych powiedział, że klienci chcieli mieć więcej miejsca na biurkach, stąd pomysł na stację robocza all-in-one.
      Zdaniem Zafarany Z1 można porównać do Z800, najbardziej wydajnej stacji roboczej HP. „Dostarczamy moc stacji roboczej, ale bez obudowy typu tower“ - mówi Zafarana.
      W Z1 zastosowano procesor Xeon, kartę graficzną Nvidia Quadro oraz 400-watowy zasilacz. Urządzenie wyposażono w kamerę i porty USB 3.0. Jest tam też miejsce na dwa dyski twarde i czytnik Blu-ray. Użytkownik łatwo może zdemontować wyświetlacz i wymieniać poszczególne elementy.
    • By KopalniaWiedzy.pl
      Ze złożonych w sądzie dokumentów dowiadujemy się, że HP zapłacił Intelowi 690 milionów dolarów, by półprzewodnikowy koncern utrzymał produkcję i rozwój procesorów Itanium do roku 2017. Najpierw na podstawie umowy z 2008 roku HP zapłacił 440 milionów za przedłużenie życia Itanium do roku 2014. W 2010 roku obowiązywanie umowy przedłużono do 2017, a HP dopłacił 250 milionów USD.
      Producenci oprogramowania, tacy jak Microsoft czy Red Hat, zaprzestali rozwijania aplikacji dla architektury Itanium, gdyż wiedzą, że jej czas dobiega końca. Wielcy producenci sprzętu, jak Dell czy IBM już od lat nie oferują serwerów z Itanium. Nawet sam Intel przestał w ubiegłym roku wspierać Itanium w kompilatorach C/C++ i Fortrana. Co więcej, część swojego zespołu pracującego nad Itanium Intel skierował już do prac nad projektami związanymi z układami Xeon.
      HP potrzebuje utrzymania Itanium, gdyż jego najważniejsze produkty - HP-UX, OpenVMS czy NonStop - korzystają właśnie z niej i miną całe lata, zanim uda się stworzyć ich odpowiedniki dla Xeona. Koncern jednak musi się spieszyć. Sprzedaż platformy Itanium spada od wielu lat, a sztuczne utrzymywanie Itanium nie tylko kosztuje go setki milionów dolarów, które musi płacić Intelowi, ale naraża na szwank jego relacje z innymi firmami. O wysokości opłat wnoszonych na rzecz Intela dowiedzieliśmy się bowiem przy okazji sporu sądowego pomiędzy HP a Oracle’em. HP twierdzi, że Oracle złamał umowę zaprzestając produkcji oprogramowania dla Itanium, a zrobił to, by promować własne serwery z architekturą Sun SPARC. Oracle zaś twierdzi, że HP postępowało niewłaściwie, nie informując klientów o przyszłości Itanium. Przed trzema dniami sąd orzekł, że obie firmy postępowały niewłaściwie. HP, gdyż nie informował swoich partnerów, klientów i pracowników o planach dotyczących Itanium, a Oracle, gdyż wykorzystało fałszywy pretekst do zaprzestania produkcji programów dla Itanium w celu promowania platformy SPARC.
    • By KopalniaWiedzy.pl
      Jak informują przedstawiciele należącej do HP Zero-Day Initiative (ZDI), IBM, HP i i Microsoft są tymi producentami oprogramowania, którzy mają najgorsze wyniki w łataniu dziur typu zero-day, czyli niezałatanych dziur aktywnie wykorzystywanych przez przestępców.
      W bieżącym roku ZDI upubliczniła dane o 29 wciąż niezałatanych lukach typu zero-day, o których istnieniu informowano producentów oprogramowania pół roku wcześniej. W programach IBM-a było 10 takich dziur, w oprogramowaniu HP znaleziono ich sześć, a w programach Microsoftu - pięć.
      TippingPoint, wydział HP prowadzący ZDI, jest znany z organizowania hakerskich zawodów Pwn2Own. Kupuje on informacje o lukach od niezależnych badaczy i informuje o nich producentów dziurawego oprogramowania. HP wykorzystuje tak uzyskane informacje do udoskonalania swoich programów zabezpieczających. W ubiegłym roku TippingPoint poinformował, że jeśli producent nie załata oprogramowania w ciągu pół roku po otrzymaniu informacji, ujawni ograniczoną ilość danych o dziurze.
      Osoby pracujące przy ZDI twierdzą, że takie działanie wywiera pewien pozytywny nacisk na producentów. Po raz pierwszy informacje takie ujawniono 7 lutego 2011 roku, a już w kwietniu Microsoft załatał wszystkie pięć luk w MS Office, o których został poinformowany w połowie 2010 roku.
      Nie wszyscy reagują jednak tak samo. IBM i HP wciąż nie załatały swoich 16 dziur, mimo, że o istnieniu niektórych wiedzą od trzech lat.
    • By KopalniaWiedzy.pl
      Lenovo jest już drugim pod względem wielkości sprzedaży producentem pecetów na świecie. W ubiegłym kwartale chińska firma przegoniła Della i zaczyna zagrażać pozycji HP.
      Chińczycy sprzedali w trzecim kwartale 12,5 miliona komputerów. To o 14,5% więcej niż kwartał wcześniej, gdy zanotowali sprzedaż rzędu 10,9 miliona urządzeń. W tym samym czasie cały rynek pecetów powiększył się jedynie o 5,5%. Udziały Lenovo wyniosły na nim 13,9%, czyli wzrosły o 1,1 punkt procentowy.
      Obecnie HP i Lenovo dzielą jedynie 4,2 punkty procentowe rynkowych udziałów. Od drugiego kwartału 2008 roku żaden konkurent nie zbliżył się tak bardzo do HP.
      Hewlett-Packard również notuje wzrost sprzedaży, ale nie jest on tak imponujący jak w przypadku Lenovo. W trzecim kwartale sprzedaż maszyn HP zwiększyła się o 5,9% i wyniosła 16,3 miliona sztuk.
×
×
  • Create New...