Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Więcej pamięci w serwerach

Rekomendowane odpowiedzi

Firma Metaram przygotowała technologię, która pozwala w łatwy sposób dwu- a nawet czterokrotnie zwiększyć ilość pamięci RAM dostępną dla serwera. Pierwszymi klientami MetaRAM zostały Hynix i SmartModular.

Układy pamięci od pewnego czasu nie nadążają za rozwojem procesorów. Na rynku mamy już 2-, 4- i 8-rdzeniowe CPU przeznaczone dla serwerów i układy te są w stanie wykonać jednocześnie tak wiele zadań, że muszą oczekiwać, na pamięć, która nie dorównuje im wydajnością. W efekcie spada wydajność całego systemu. Musimy pamiętać też i o tym, że nie możemy bez końca dokładać kolejnych kości pamięci.

Twórców serwerów ogranicza tu przede wszystkim konstrukcja płyty głównej, która ma określoną liczbę slotów.

Rozwiązaniem problemu jest zastosowanie układu MetaSDRAM, który jest pośrednikiem pomiędzy kośćmi pamięci a kontrolerem. Jego zastosowanie powoduje, że producenci mogą na pojedynczej kości umieścić nawet czterokrotnie więcej układów scalonych, gdyż MetaRAM zajmuje się przetwarzaniem dodatkowych sygnałów elektrycznych. Odbywa się to oczywiście kosztem większych opóźnień i poboru mocy (w przypadku układu FB-DIMM jest to opóźnienie rzędu 40-50 nanosekund), jednak korzyści zdecydowanie przewyższają koszty.

Obecnie na serwerowej płycie głównej, która wyposażona została w cztery sloty pamięci, możemy zastosować 128 gigabajtów RAM. Dzięki nowym układom zmieści się tam nawet 512 GB RAM. Co więcej, zastosowanie rozwiązania MetaRAM wiąże się z olbrzymimi oszczędnościami gotówki. Firma SmartModular zwykle sprzedaje 8-gigabajtowy serwerowy układ DIMM za około 5000 USD. Kość o tej samej pojemności, wyposażona w chip MetaRAM wyceniona została na 1500 dolarów.

Układy MetaRAM współpracują zarówno z technologią DDR2 jak i DDR3. Powstają one w fabrykach TSMC i zostały wycenione na 200 USD za chip dla 8-gigabajtowych DIMM i na 450 USD dla 16-gigabajtowych układów pamięci.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Kość o tej samej pojemności, wyposażona w chip MetaRAM wyceniona została na 1500 dolarów.

 

Za cztery tysiące taki pendrive (512Gb) to darmocha ;D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Specjaliści ostrzegają, że 8 marca część użytkowników internetu mogą czekać poważne kłopoty. Właśnie na ten dzień FBI zapowiedziało wyłączenie swoich serwerów, które zastąpiły serwery przestępców, kierujących użytkowników na złośliwe witryny.
      W listopadzie FBI zlikwidowało botnet DNSChanger. Jego twórcy infekowali komputery i manipulowali adresami internetowymi tak, że użytkownicy trafiali na witryny, których jedynym celem było wyświetlanie reklam. FBI zastąpiło serwery przestępców własnymi maszynami, dzięki czemu komputery zainfekowane przez botnet mogły bez przeszkód łączyć się z internetem. Ponadto FBI było w stanie zidentyfikować zarażone maszyny.
      Jednak Biuro z góry założyło, że zastępcze serwery będą działały tylko przez jakiś czas, by użytkownicy komputerów zarażonych DNSChangerem mieli czas na wyczyszczenie komputerów ze szkodliwego kodu. „Zastępcza sieć“ FBI ma zostać wyłączona właśnie 8 marca. Oznacza to, że komputery, które nadal są zarażone, stracą dostęp do internetu, gdyż będą usiłowały łączyć się z nieistniejącymi serwerami DNS.
      Eksperci ostrzegają, że wiele komputerów wciąż nie zostało wyczyszczonych ze szkodliwego kodu. Z danych firmy ID wynika, że co najmniej 250 z 500 największych światowych firm oraz 27 z 55 największych amerykańskich instytucji rządowych używa co najmniej jednego komputera lub routera zarażonego DNSChangerem. Nieznana jest liczba indywidualnych użytkowników, którzy mogą mieć kłopoty.
      Zespół odpowiedzialny w FBI za zwalczanie DNSChangera rozważa przedłużenie pracy serwerów. Jednak nawet jeśli nie zostaną one wyłączone 8 marca, to niewiele się zmieni. Internauci, zarówno prywatni jak i instytucjonalni, nie dbają o to, co dzieje się z ich komputerami. Można tak wnioskować chociażby z faktu, że największa liczba skutecznych ataków jest przeprowadzonych na dziury, do których łaty istnieją od dawna, jednak właściciele komputerów ich nie zainstalowali. Przykładem takiej walki z wiatrakami może być historia robaka Conficker, który wciąż zaraża miliony maszyn, mimo, że FBI od 2009 roku prowadzi aktywne działania mające na celu oczyścić zeń internet.
      Ponadto, jeśli FBI nie wyłączy swoich serwerów, to DNSChanger nadal będzie groźny. Robak uniemożliwia bowiem pobranie poprawek, co oznacza, że niektóre z zarażonych nim maszyn nie były aktualizowane od wielu miesięcy, a to wystawia je na jeszcze większe niebezpieczeństwo.
      Firmy, które chcą sprawdzić, czy ich komputery zostały zarażone DNSChangerem powinny skontaktować się z witryną DNS Changer Working Group. Użytkownicy indywidualni mogą skorzystać z narzędzia do sprawdzenia komputera.
    • przez KopalniaWiedzy.pl
      Intel prawdopodobnie pracuje nad ośmiordzeniowym procesorem Atom dla serwerów. Energooszczędne układy cieszą się coraz większym zainteresowaniem ze strony producentów takich maszyn. HP właśnie ogłosił, że będzie oferował swoim klientom serwery z procesorami ARM.
      Intel nie chce pozostać w tyle i, jak twierdzi serwis SemiAccurate, w 2013 roku zaprezentuje ośmiordzeniowego Atoma. Procesor ma bazować na 22-nanometrowym rdzeniu Silvermont wykorzystującym trójbramkowe tranzystory. Prawdopodobnie będzie taktowany częstotliwością wyższą o 20-25 procent od taktowania obecnie dostępnych Atomów.
      Sam Intel nie wspominał o ośmiordzeniowym Atomie. Firma zapowiada jedynie, że w 2013 roku zadebiutuje Atom Silvermont dla notebooków.
    • przez KopalniaWiedzy.pl
      Analitycy prognozują, że wkrótce będziemy świadkami olbrzymiego spadku cen układów pamięci DRAM. W drugim kwartale 2-gigabitowa kość DDR3 kosztowała u producenta 2,10 USD. Jeszcze w trzecim kwartale średnia cena tego typu układów może spaść do 1,60 USD, w czwartym kwartale spadek może sięgnąć kolejnych 22%, a cena kości osiągnie poziom 1,25 USD.
      Spadające ceny to efekt rosnącej produkcji przy jednoczesnym zmniejszającym się popycie na pecety.
      Ceny układów pamięci powinny zacząć rosnąć w trzecim i czwartym kwartale. Tym razem jednak się tak nie stanie. Analitycy mówią, że w bieżącym kwartale na rynek trafi o 15,9% układów więcej niż w drugim kwartale 2011, dlatego też ceny będą spadały.
      Obniżenie się ceny z 2,10 do 1,25 dolarów to zła wiadomość dla producentów, gdyż czeka ich olbrzymia redukcja zysków.
    • przez KopalniaWiedzy.pl
      W dokumencie The Data Furnaces: Heating Up with Cloud Computing specjaliści z Microsoft Research proponują ogrzewanie domów ciepłem odpadowym z chmur obliczeniowych. Podobne pomysły nie są niczym nowym, jednak inżynierowie Microsoftu wpadli na nowatorski pomysł tworzenia infrastruktury chmur. Proponują oni mianowicie, by serwerów nie instalować w wielkim centrum bazodanowym, ale... w domach, które mają być przez nie ogrzewane. W ten sposób rachunki w gospodarstwie domowym za ogrzewanie spadłyby niemal do zera. Olbrzymie kwoty, rzędu 280-324 dolarów rocznie od serwera, zaoszczędziliby również właściciele chmur obliczeniowych.
      Autorzy dokumentu przewidują, że serwery byłyby umieszczane w piwnicach domów jednorodzinnych. Właściciele domów byliby zobowiązani do ewentualnego restartowania maszyn w razie potrzeby. Jak twierdzą badacze z Microsoft Research właściciele chmur już od początku zanotowaliby poważne oszczędności. Nie musieliby bowiem ponosić kosztów związanych z budową lub wynajęciem i utrzymaniem pomieszczeń, budową sieci energetycznej i teleinformatycznej, systemu chłodzenia, obniżyliby koszty operacyjne. Z drugiej strony zauważają, że energia elektryczna jest sprzedawana odbiorcom indywidualnym drożej niż odbiorcom biznesowym, zwiększyłyby się koszty konserwacji, gdyż maszyny byłyby rozrzucone do po dużej okolicy, ponadto nie we wszystkich domach dostępne są łącza o wymaganej przepustowości.
      Oczywiście do domów jednorodzinnych trafiałyby niewielkie serwery. Większe maszyny można by ustawiać w biurowcach, gdzie również zapewnią ogrzewanie budynku.
      Analiza pokazała, że największe korzyści odnieśliby mieszkańcy tych stanów, w których ogrzewanie domów pochłania najwięcej pieniędzy.
      Pracownicy Microsoftu twierdzą ponadto, że ich propozycja spowoduje, iż możliwe będzie zwiększenie wydajności chmur obliczeniowych bez jednoczesnego zwiększania zużycia energii w skali kraju. Już przed 5 laty centra bazodanowe zużywały 3% energii produkowanej w USA. Dzięki instalowaniu ich w domach jednorodzinnych będzie można zwiększyć liczbę serwerów, a tym samym zwiększyć ilość zużywanej przez nie energii, co jednak nie spowoduje globalnego wzrostu jej zużycia, gdyż jednocześnie spadnie ilość energii zużywanej przez gospodarstwa domowe do ogrzewania.
      W analizie Microsoftu zabrakło jednak odniesienia się do kwestii bezpieczeństwa czy sytuacji awaryjnych, takich jak np. przerwy w dostawie prądu.
    • przez KopalniaWiedzy.pl
      Tudor Brown, prezes firmy ARM postanowił nieco ochłodzić nastroje wśród osób oczekujących na rychłe premiery serwerów z kośćmi ARM. Mocno wierzymy w to, że ta chwila nadejdzie. Ten proces już się rozpoczyna, ale minie kilka lat [zanim serwery ARM będą sprzedawane w znaczącej ilości - red.] - mówił Brown.
      Wiele firm, wśród nich Nvidia, Marvell czy Calxeda, pracuje nad serwerami z kośćmi ARM. Tego typu maszyny mogą przydać się wszędzie tam, gdzie nie jest wymagana największa możliwa moc obliczeniowa. Ich olbrzymią zaletą jest niskie zapotrzebowanie na energię, co w wielu przypadkach przyniesie oznacza duże oszczędności.
      ARM rozpoczęło własne badania nad serwerami już w roku 2008 w nadziei, że pewnego dnia będą one stanowiły ważny rynek dla tego typu procesorów. Jednak, by do tego doszło, firma musi zadbać o całe związane z tym otoczenie. Musi upewnić się, że istnieje oprogramowanie serwerowe dla architektury ARM i namówić producentów sprzętu, by tworzyli odpowiednie urządzenia.
      Brytyjska firma intensywnie pracuje nad kolejnymi układami. Zapowiada, że kość Cortex A-15 będzie obsługiwała wirtualizację oraz 64-bitowe oprogramowanie. To jednak dopiero początek implementowania podstawowych technologii, które powinny obsługiwać procesory serwerowe.
      Dlatego też zdaniem Browna na pojawienie się na rynku większej liczby serwerów ARM trzeba będzie poczekać do roku 2014 lub 2015.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...