Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Serwer na laptopowych procesorach

Rekomendowane odpowiedzi

Via Technologies informuje o powstaniu niewielkiego serwera korzystającego z laptopowych procesorów Nano. Urządzenie Mserv S2100 ma wielkość biurkowego desktopa, a jego procesor taktowany jest zegarem od 1,3 do 1,6 GHz.

Serwer powstał z myślą o zastosowaniu go w domach i małych firmach jako urządzenia do przechowywania kopii zapasowych czy hostowania aplikacji sieciowych. Wyposażono go w dwa porty Gigabit Ethernet oraz możliwość zainstalowania do 4 terabajtów pamięci masowej. Maszyna sprzętowo wspiera wirtualizację i korzysta ze sprzętowego szyfrowania danych w locie.

Mserv S2100 to kolejny przykład zastosowania energooszczędnych procesorów notebookowych w serwerach. Maszyny takie są tanie i charakteryzują się niskimi kosztami obsługi. Są często bardzo dobrą alternatywą dla większych, bardziej wydajnych serwerów, gdyż w wielu przypadkach - np. przy przechowywaniu kopii zapasowych - wykorzystuje się jedynie część ich mocy i ponosi spore koszty związane ze zużyciem energii.

Procesory Nano wykorzystał również Dell w serwerze XS11-VX8, a dział badawczo-rozwojowy Microsoftu stworzył eksperymentalny serwer wykorzystujący 50 procesorów Atom.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pomyśleć, że jeszcze parę lat temu energooszczędność procesora była w ogóle ignorowana. Mam wrażenie, że niedługo wysunie się za to wręcz na pierwsze miejsce wśród istotnych (dla kupującego) parametrów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla klienta indywidualnego nic się nie zmienia. Przeciętny Kowalski nie będzie patrzył na TDP.

To ma znaczenie tylko w centrach bazodanowych, gdzie gra idzie od dziesiątki/setki tysięcy dolarów oszczędności. Stąd w nowoczesnych procesorach serwerowych masz np. technologie dostosowywania poboru mocy do wykonywanych zadań czy wyłączające nieużywane rdzenie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przeciętny Kowalski będzie za to patrzał na długość pracy na bateriach (jesli mówimy o niestacjonarnych pecetach) jak i o zasilaczu. Często ostatnio widuję jak ludzie kupujący komputery zwracają uwagę na zasilacze - im "mniejszy Watowo" tym lepiej. Minęły już czasy gdy często człowiek który nie miał zasilacza 1000W był uważany za cieniasa...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Osobiście w życiu nie kupił bym zasilacza 1000w - przecież, jeżeli komputer faktycznie potrzebuje tyle prądu, to bym zbankrutował, przy średniej pracy 10h dziennie 30 dni w miesiącu mam dodatkowe ~150zł opłaty za prąd - tylko szaleńcy godzą się na takie koszty dodatkowych 2FPS

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko szeleńcy kupują takie zasilacze i wcale nie przekłada się to na wydajność. Kupując komputer też byłem przekonany że bez zasilacza 700W nie uciągnę takiego sprzętu. Trafiłem jednak na dwa serwisy na których po podaniu składowych komputera (pełne parametry vide model procka, model ram + kilka szacunkowych jak ilość wiatraczków 80mm w obudowie) szacował zapotrzebowanie zestawu na moc. Okazało się że mój zestaw potrzebował z tego co pamiętam jakieś 390W, więc z zapasem wziąłem MARKOWY zasilacz 430W i do dzisiaj nie miałem żadnych problemów, nawet w bardzo stresowych warunkach dla całej maszyny :D

Więc te zasilacze to raczej nie kwestia wydajności, lecz niewiedzy i przeświadczenia że więcej = lepiej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak, o tym pisałem wiadomo, zasilacz 1000w nie oznacza automatycznie, że tyle pobiera. Jednak ja się odnosiłem do osób, które mają płytę na 2 procesory czterordzeniowe + 8gb ram + 2 dwurdzeniowe karty graficzne w sli + macież raid z 4 dyskami twardymi jednym słowem totalne ekstremum, które wydaje na stacjonarnego kompa 15k + komputer kręci i chłodzi wodą wraz z ogniwem Peltiera, bo azot jest zbyt mało dostępny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko że taki sprzęt nie wyciśnie dodatkowych 2fps, lecz jakby ciut więcej :D

Jeśli ktos potrzebuje (ewentualnie wydaje mu się że potrzebuje) najlepszego sprzętu to taki sobie kupi, tylko mówiliśmy o przeciętnych Kowalskich, którzy do niedawna nie zwracali w ogólę uwagi na prądożerność swoich komputerów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko że taki sprzęt nie wyciśnie dodatkowych 2fps, lecz jakby ciut więcej :D

To na przykładzie gry KWake 3 - jaka jest różnica czy będziesz miał 150 fps, czy też 350 fps? Żeby było śmieszniej Co jakiś czas wychodzi nowa biblioteka DirectX, która jest wymagana przez nowsze gry dla wyświetlenia pełnej dosłownie "oczojebności" - w efekcie karty graficzne nawet najlepsze aktualnie na rynku za 3 lata już nie będą najlepszymi, ba pod względem DirectXa będą zacofane. Przykład z życia: ostatnio zastąpiłem wysłużonego GeForce 4400 titanium (koszt wtedy 1000zł) na Radeona 3850 za 340zł, który na tym samym sprzęcie bije wydajnością gieforsa o ponad 80%.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pozostaje tylko czekać aż powstaną serwery i superkomputery oparte na ARM (już były takie eksperymenty badawcze) .

 

Oraz powstaną maszyny RISCowe oparte wyłącznie na GPU bez CPU . Już nvidia coś podobnego produkuje jednak to ma CPU . Ale za pare lat będą maszyny do obliczeń bez cpu bo on stanie się zbędny do takich celów . A system bazowy który by obslużył taką maszyn już istnieje . Pozostaje tylko problem z portowaniem oprogramowania ale po przeniesieniu GCC lub PCC na GPU ten problem zniknie :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To na przykładzie gry KWake 3 - jaka jest różnica czy będziesz miał 150 fps, czy też 350 fps?

Jaka jest różnica między 40 a 50 fps, a jaka pomiędzy 80 a 100 ? Zakładam że masz monitor LCD, ile wyciąga on FPS tak sam z siebie ? :D Płynna animacja to ~30FPS, większość filmów ma 23 FPS, a jakoś ludzie ogladają i nie psioczą. Zawsze się znajdzie grupa ludzi którzy będą chcieli mieć te 350 FPS, ale co na to poradzisz ? ;)

 

Żeby było śmieszniej Co jakiś czas wychodzi nowa biblioteka DirectX, która jest wymagana przez nowsze gry dla wyświetlenia pełnej dosłownie "oczojebności" - w efekcie karty graficzne nawet najlepsze aktualnie na rynku za 3 lata już nie będą najlepszymi,

Nie będą najlepszymi już za jakieś 5-6 miesięcy, ale to drobny szczegół ;)

 

@krzabr

Po co portować soft w maszynach do obliczeń ? Myślę że w takich przypadkach będzie tam oprogramowanie specjalistyczne tworzone pod ten typ maszyn/zastosowań.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mając na myśli oprogramowanie myślałem nad systemem operacyjnym , sterownikami , kompilatorami oraz bibliotekami do spejalistycznych obliczeń .

 

A nie ma co ukrywać że przeniesienie Linuxa/BSD lub Solarisa znacznie by przyśpieszyło i rozszerzyło wykorzystanie takich maszyn  .

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla klienta indywidualnego nic się nie zmienia. Przeciętny Kowalski nie będzie patrzył na TDP.

O, nie zgodzę się. Widzę, że coraz więcej ludzi patrzy przy wszystkim na zużycie prądu, nieraz maniacko. Zużycie energii było jednym z powodów, dla których p awarii starego sprzętu kupiłem laptopa, a nie desktopa. A skąd się bierze popularność nettopów z Atomami? Przecież nie z samego ładnego wyglądu.

 

Przy kupowaniu lodówki też się kiedyś nie patrzyło na to, ile watt zżera, dziś to jest jeden z głównych punktów wybitych na ulotkach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bardzo dobry pomysł - wlepianie na kompach naklejek - "klasa energetyczna A+" :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Specjaliści ostrzegają, że 8 marca część użytkowników internetu mogą czekać poważne kłopoty. Właśnie na ten dzień FBI zapowiedziało wyłączenie swoich serwerów, które zastąpiły serwery przestępców, kierujących użytkowników na złośliwe witryny.
      W listopadzie FBI zlikwidowało botnet DNSChanger. Jego twórcy infekowali komputery i manipulowali adresami internetowymi tak, że użytkownicy trafiali na witryny, których jedynym celem było wyświetlanie reklam. FBI zastąpiło serwery przestępców własnymi maszynami, dzięki czemu komputery zainfekowane przez botnet mogły bez przeszkód łączyć się z internetem. Ponadto FBI było w stanie zidentyfikować zarażone maszyny.
      Jednak Biuro z góry założyło, że zastępcze serwery będą działały tylko przez jakiś czas, by użytkownicy komputerów zarażonych DNSChangerem mieli czas na wyczyszczenie komputerów ze szkodliwego kodu. „Zastępcza sieć“ FBI ma zostać wyłączona właśnie 8 marca. Oznacza to, że komputery, które nadal są zarażone, stracą dostęp do internetu, gdyż będą usiłowały łączyć się z nieistniejącymi serwerami DNS.
      Eksperci ostrzegają, że wiele komputerów wciąż nie zostało wyczyszczonych ze szkodliwego kodu. Z danych firmy ID wynika, że co najmniej 250 z 500 największych światowych firm oraz 27 z 55 największych amerykańskich instytucji rządowych używa co najmniej jednego komputera lub routera zarażonego DNSChangerem. Nieznana jest liczba indywidualnych użytkowników, którzy mogą mieć kłopoty.
      Zespół odpowiedzialny w FBI za zwalczanie DNSChangera rozważa przedłużenie pracy serwerów. Jednak nawet jeśli nie zostaną one wyłączone 8 marca, to niewiele się zmieni. Internauci, zarówno prywatni jak i instytucjonalni, nie dbają o to, co dzieje się z ich komputerami. Można tak wnioskować chociażby z faktu, że największa liczba skutecznych ataków jest przeprowadzonych na dziury, do których łaty istnieją od dawna, jednak właściciele komputerów ich nie zainstalowali. Przykładem takiej walki z wiatrakami może być historia robaka Conficker, który wciąż zaraża miliony maszyn, mimo, że FBI od 2009 roku prowadzi aktywne działania mające na celu oczyścić zeń internet.
      Ponadto, jeśli FBI nie wyłączy swoich serwerów, to DNSChanger nadal będzie groźny. Robak uniemożliwia bowiem pobranie poprawek, co oznacza, że niektóre z zarażonych nim maszyn nie były aktualizowane od wielu miesięcy, a to wystawia je na jeszcze większe niebezpieczeństwo.
      Firmy, które chcą sprawdzić, czy ich komputery zostały zarażone DNSChangerem powinny skontaktować się z witryną DNS Changer Working Group. Użytkownicy indywidualni mogą skorzystać z narzędzia do sprawdzenia komputera.
    • przez KopalniaWiedzy.pl
      Intel prawdopodobnie pracuje nad ośmiordzeniowym procesorem Atom dla serwerów. Energooszczędne układy cieszą się coraz większym zainteresowaniem ze strony producentów takich maszyn. HP właśnie ogłosił, że będzie oferował swoim klientom serwery z procesorami ARM.
      Intel nie chce pozostać w tyle i, jak twierdzi serwis SemiAccurate, w 2013 roku zaprezentuje ośmiordzeniowego Atoma. Procesor ma bazować na 22-nanometrowym rdzeniu Silvermont wykorzystującym trójbramkowe tranzystory. Prawdopodobnie będzie taktowany częstotliwością wyższą o 20-25 procent od taktowania obecnie dostępnych Atomów.
      Sam Intel nie wspominał o ośmiordzeniowym Atomie. Firma zapowiada jedynie, że w 2013 roku zadebiutuje Atom Silvermont dla notebooków.
    • przez KopalniaWiedzy.pl
      W dokumencie The Data Furnaces: Heating Up with Cloud Computing specjaliści z Microsoft Research proponują ogrzewanie domów ciepłem odpadowym z chmur obliczeniowych. Podobne pomysły nie są niczym nowym, jednak inżynierowie Microsoftu wpadli na nowatorski pomysł tworzenia infrastruktury chmur. Proponują oni mianowicie, by serwerów nie instalować w wielkim centrum bazodanowym, ale... w domach, które mają być przez nie ogrzewane. W ten sposób rachunki w gospodarstwie domowym za ogrzewanie spadłyby niemal do zera. Olbrzymie kwoty, rzędu 280-324 dolarów rocznie od serwera, zaoszczędziliby również właściciele chmur obliczeniowych.
      Autorzy dokumentu przewidują, że serwery byłyby umieszczane w piwnicach domów jednorodzinnych. Właściciele domów byliby zobowiązani do ewentualnego restartowania maszyn w razie potrzeby. Jak twierdzą badacze z Microsoft Research właściciele chmur już od początku zanotowaliby poważne oszczędności. Nie musieliby bowiem ponosić kosztów związanych z budową lub wynajęciem i utrzymaniem pomieszczeń, budową sieci energetycznej i teleinformatycznej, systemu chłodzenia, obniżyliby koszty operacyjne. Z drugiej strony zauważają, że energia elektryczna jest sprzedawana odbiorcom indywidualnym drożej niż odbiorcom biznesowym, zwiększyłyby się koszty konserwacji, gdyż maszyny byłyby rozrzucone do po dużej okolicy, ponadto nie we wszystkich domach dostępne są łącza o wymaganej przepustowości.
      Oczywiście do domów jednorodzinnych trafiałyby niewielkie serwery. Większe maszyny można by ustawiać w biurowcach, gdzie również zapewnią ogrzewanie budynku.
      Analiza pokazała, że największe korzyści odnieśliby mieszkańcy tych stanów, w których ogrzewanie domów pochłania najwięcej pieniędzy.
      Pracownicy Microsoftu twierdzą ponadto, że ich propozycja spowoduje, iż możliwe będzie zwiększenie wydajności chmur obliczeniowych bez jednoczesnego zwiększania zużycia energii w skali kraju. Już przed 5 laty centra bazodanowe zużywały 3% energii produkowanej w USA. Dzięki instalowaniu ich w domach jednorodzinnych będzie można zwiększyć liczbę serwerów, a tym samym zwiększyć ilość zużywanej przez nie energii, co jednak nie spowoduje globalnego wzrostu jej zużycia, gdyż jednocześnie spadnie ilość energii zużywanej przez gospodarstwa domowe do ogrzewania.
      W analizie Microsoftu zabrakło jednak odniesienia się do kwestii bezpieczeństwa czy sytuacji awaryjnych, takich jak np. przerwy w dostawie prądu.
    • przez KopalniaWiedzy.pl
      Tudor Brown, prezes firmy ARM postanowił nieco ochłodzić nastroje wśród osób oczekujących na rychłe premiery serwerów z kośćmi ARM. Mocno wierzymy w to, że ta chwila nadejdzie. Ten proces już się rozpoczyna, ale minie kilka lat [zanim serwery ARM będą sprzedawane w znaczącej ilości - red.] - mówił Brown.
      Wiele firm, wśród nich Nvidia, Marvell czy Calxeda, pracuje nad serwerami z kośćmi ARM. Tego typu maszyny mogą przydać się wszędzie tam, gdzie nie jest wymagana największa możliwa moc obliczeniowa. Ich olbrzymią zaletą jest niskie zapotrzebowanie na energię, co w wielu przypadkach przyniesie oznacza duże oszczędności.
      ARM rozpoczęło własne badania nad serwerami już w roku 2008 w nadziei, że pewnego dnia będą one stanowiły ważny rynek dla tego typu procesorów. Jednak, by do tego doszło, firma musi zadbać o całe związane z tym otoczenie. Musi upewnić się, że istnieje oprogramowanie serwerowe dla architektury ARM i namówić producentów sprzętu, by tworzyli odpowiednie urządzenia.
      Brytyjska firma intensywnie pracuje nad kolejnymi układami. Zapowiada, że kość Cortex A-15 będzie obsługiwała wirtualizację oraz 64-bitowe oprogramowanie. To jednak dopiero początek implementowania podstawowych technologii, które powinny obsługiwać procesory serwerowe.
      Dlatego też zdaniem Browna na pojawienie się na rynku większej liczby serwerów ARM trzeba będzie poczekać do roku 2014 lub 2015.
    • przez KopalniaWiedzy.pl
      Niematerialne cyfrowe artefakty, np. zdjęcia, e-maile czy pliki muzyczne, mogą być dla współczesnych nastolatków równie cenne, co ulubiona książka z dzieciństwa lub T-shirt z festiwalu muzycznego. Fakt, że wirtualne dobra nie mają formy fizycznej, tak naprawdę zwiększa ich wartość - ustalili naukowcy z Carnegie Mellon University (CMU).
      Amerykańskie studium objęło 21 nastolatków. Jego autorzy uważają, że pełniejsza ocena wartości przypisywanej wirtualnym obiektom może wspomóc wysiłki projektantów e-usług i e-towarów. Cyfrowe zdjęcie jest cenne, ponieważ jest zdjęciem, ale także dlatego, że można się nim dzielić [udostępniać], a inni mogą zostawiać swoje komentarze – podkreśla prof. John Zimmerman. Dla osób, które wzięły udział w badaniu CMU, fotografia z tagami od przyjaciół i znajomych, zlinkowana i skomentowana miała większe znaczenie od zdjęcia z albumu.
      Jedna z badanych 16-latek powiedziała, że za każdym razem, gdy bierze udział w jakimś wydarzeniu, np. koncercie, robi masę zdjęć, a następnie od razu umieszcza wszystkie w Internecie, tak by znajomi mogli je zlinkować, skomentować itp. Odbieram to jako prawdziwszą relację z wydarzenia. Komentujemy i omawiamy wszystko... co daje w konsekwencji uwspólniony sens tego, co się wydarzyło.
      Skłonność człowieka do zbierania i nadawania przedmiotom znaczenia jest znana i opisywana od wieków. Współcześnie jednak wiele cenionych obiektów – książki, zdjęcia, płyty CD – jest zastępowanych wersjami elektronicznymi, np. e-bookami. Ponadto za pomocą komputera można stworzyć coś, co nie miało wcześniej żadnej materialnej postaci, m.in. profile na portalach społecznościowych czy awatary do gier sieciowych.
      Zimmerman, prof. Jodi Forlizzi i doktorant William Odom zwerbowali do eksperymentu 9 dziewcząt i 12 chłopców w wieku od 12 do 17 lat. Ich rodziny reprezentowały tzw. klasę średnią lub wyższą średnią, dlatego dzieci miały łatwy i częsty dostęp do nowoczesnych technologii, w tym telefonów komórkowych i Internetu. Psycholodzy pytali o rzeczy związane z codziennym życiem, wykorzystanie technologii oraz o cenione dobra materialne i wirtualne.
      Niemożność powiązania wirtualnych dóbr z konkretnym miejscem zwiększa wartość, dlatego coś przechowywanego online jest cenniejsze od tej samej rzeczy znajdującej się na dysku komputera. Chodzi o to, że obiekty z Sieci są zawsze dostępne. Pewna 17-latka powiedziała, że skopiowała na serwer internetowy wszystkie swoje zdjęcia, by stale mieć do nich dostęp, bez względu na to, czy znajduje się w łóżku, czy w markecie. Lubię wiedzieć, że będą tam, gdy zechcę do nich zajrzeć.
      Na wartość online'owych obiektów wpływa stopień, do jakiego użytkownicy mogą je zmieniać i personalizować. Jeden z ankietowanych 17-latków spędził np. dużo czasu, dopracowując awatar do gry "Halo". Jego znajomi często go komentowali. Zimmerman, Forlizzi i Odom zauważyli też, że gromadzące się metadane (np. historia aktywności, komentarze czy wskaźniki czasu spędzonego online) znacznie podwyższają wartość wirtualnych dóbr.
      Badani twierdzili, że w Sieci mogą ujawniać rzeczy, np. zdjęcie nielubianego przez rodziców chłopaka, które nigdy nie pojawiłyby w ich sypialni. Wirtualny świat pozwala nastolatkom prezentować odpowiednim grupom odpowiedni wizerunek. Wskazuje to na potrzebę tworzenia zaawansowanych narzędzi do kontroli prywatności.
      Naukowcy podkreślają, że stałe rozszerzanie repertuaru i kolekcji wirtualnych dóbr stwarza realne dylematy, np. czy jeśli użytkownicy wspólnie tworzą artefakty (dodają tagi lub znaczniki do zdjęć), trzeba zgody wszystkich, by je usunąć?
      Nasze przyszłe badania będą służyły sprawdzeniu, co się dzieje, kiedy granice między dobrami wirtualnymi i fizycznymi są bardziej rozmyte. Przyjrzymy się tagom i społecznościowym metadanym oraz ich roli w dzieleniu się doświadczeniami z rodziną i rówieśnikami – podsumowuje Forlizzi.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...