Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Aż 15% serwerów zainstalowanych na świecie nie robi niczego pożytecznego. Niepotrzebnie zużywają tylko energię, generując kolosalne koszty.

Firma analityczna Kelton Research donosi, że 72% przepytywanych przez nią menedżerów IT przyznaje, że 15% serwerów, którymi zarządzają, nie wykonuje żadnej pożytecznej pracy. Ponadto 83% z nich stwierdziło, że nie posiadają pełnej informacji o wykorzystaniu serwerów, a najpopularniejszą metodą mierzenia efektywności takich maszyn jest badanie zużycia ich procesorów.

Kelton Research ocenia, że biorąc pod uwagę wartość sprzętu, koszty zarządzania, energii, chłodzenia i prac konserwacyjnych, na całym świecie wydaje się rocznie około 24,7 miliarda dolarów na obsługę serwerów, które nie wykonują żadnych przydatnych zadań.

Z badań wynika, że 4,75 miliona serwerów pracuje przez 24 godziny na dobę, dokonywane są na nich niezbędne aktualizacja oprogramowania, a jednocześnie maszyny te nie są codziennie wykorzystywane. Przyjmując inne szacunki, zgodnie z którymi koszty użytkowania pojedynczego serwera wynoszą 4400 dolarów rocznie, Kelton stwierdza, że maszyny te pochłaniają 20,9 miliarda dolarów i dodatkowo zużywają energię o wartości 3,8 miliarda USD.

Okazuje się, że bardzo niewiele osób odpowiedzialnych za serwery stara się zaoszczędzić i np. wyłącza nieużywane maszyny. Poważnym błędem, popełnianym przez przedsiębiorstwa, jest korzystanie z danych o użyciu CPU do oceny efektywności serwera. Maszyna może bowiem zużywać sporo mocy procesora na uruchomienie oprogramowania antywirusowego, dokonywanie defragmentacji pamięci masowych, przeprowadzanie indeksowania czy tworzenie kopii zapasowych. Zajmuje się więc niejako sama sobą, ale takie działania nie przynoszą korzyści przedsiębiorstwu.

Przeprowadzone badania zostały zamówione przez firmę 1E, która dostarcza narzędzi pomagających obniżyć koszty zarządzania infrastrukturą IT oraz organizację Alliance to Save Energy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Antywirusy na serwerach? ;)

Co z serwerami poczty? Nawet jeżeli serwerEK jest maszyną linuksową antywirus ma sens.

 

Na dobrą sprawę nie ma na świecie żadnego komputera, który wykorzystuje 100% swoich możliwości w czasie. Np w tym momencie piszę na komputerze z procesorem Sempron2,4+, podczas gdy równie dobrze mógł bym to robić na Atomie, czy P3...

Wydaje mi się, że jedynie komputery stosowane do dataminingu/łamania szyfrowania są w stanie wykorzystać niemal 100%, ale też przy licznych dodatkowych założeniach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

z tymi serwerami jest tak samo jak z naszymi urzędnikami.. tylko obawiam się że % bezużytecznych urzędników jest o wiele wyższy niż te marne 15%... nie wspominając o posłach w sejmie ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cyberant, popieram ;)

 

Szaman, nie chodzi o wykorzystanie 100% mocy, tylko o to, żeby ten komputer robił cokolwiek związanego z działalnością ludzi, a nie mielił swoje dane podczas defragmentacji itd. Niech to będzie chociaż 25% wykorzystania mocy, ale właśnie przez zewnętrzne źródła jakby - różnych klientów tego serwera.

 

Poza tym, zasadniczo serwer nie powinien dochodzić do 100% wykorzystania, bo zacznie działać za wolno i z opóźnieniami - choć w niektórych wypadkach lagi nie mają dużego znaczenia, ale np przy grach online mają znaczenie kolosalne..

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co z serwerami poczty? Nawet jeżeli serwerEK jest maszyną linuksową antywirus ma sens.

Ale tam jest napisane ze sa nieuzywane, a programy antywirusowe podane sa w kontekscie zajmowania sie sobą. Wiec wnioskuje, ze to nie chodzi o antywirusy skanujace poczte uzytkownikow.

 

PS. lucky_one, czemu Twoj post wyzej skierowany jest do mnie? Ja tylko o antywirusie wspomnialem, nie kwestionuje tutaj zadnej wykorzystywanej badz nie mocy :-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ależ oczywiście błąd z mojej strony Szamanie, przepraszam. Moja wypowiedź skierowana była do czesia (czego można się z kontekstu domyśleć ;) ).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Wielkość terytorium kolonii mrówek ograniczają koszty transportu. Naukowcy z Monash University widzą w tym analogię do rozwoju ludzkich miast. Badając owady, będzie więc można przewidzieć, co w przyszłości stanie się z naszymi metropoliami.
      Doktorzy Martin Burd i Andrew Bruce zbadali 18 kolonii dwóch gatunków mrówek-grzybiarek: Atta colombica i Atta cephalotes. Obliczając wskaźnik żerowania (liczbę obciążonych ładunkiem robotnic wracających do gniazda w jednostce czasu), naukowcy wzięli pod uwagę 3 czynniki: liczbę robotnic pracujących przy zbiórce liści, a także długość i szerokość tras.
      Australijczycy zajęli się właśnie mrówkami-grzybiarkami, bo tworzą one jedne z największych owadzich społeczności na świecie. Kolonia może się składać z 8 mln robotnic, podczas gdy u pszczół do podziału na podkolonie dochodzi, gdy ich liczba sięgnie ok. 40 tys. Burd i Bruce dodają, że przypominające ludzkie ulice trasy transportu liści mają niekiedy długość 150-200 m.
      W miarę wzrostu kolonii pojedyncze owady pracują tyle samo, ale wydłużenie trasy transportu oznacza, że dostarczenie tej samej ilości materiału roślinnego do gniazda wymaga więcej czasu. Można temu zaradzić, ekspediując do tego zadania więcej robotnic. Oczywiście istnieje granica, powyżej której koszt pozyskania jest wyższy od wartości zdobywanego materiału.
      Model przewiduje że długość drogi przyrasta szybciej niż liczba dostarczających liście robotnic, ale wpływ szerokości ścieżki był dla naukowców czymś niespodziewanym. Sugeruje to, że w grę wchodzi ważny mechanizm regulujący inwestycje kolonii w oczyszczanie trasy.
    • przez KopalniaWiedzy.pl
      Specjaliści ostrzegają, że 8 marca część użytkowników internetu mogą czekać poważne kłopoty. Właśnie na ten dzień FBI zapowiedziało wyłączenie swoich serwerów, które zastąpiły serwery przestępców, kierujących użytkowników na złośliwe witryny.
      W listopadzie FBI zlikwidowało botnet DNSChanger. Jego twórcy infekowali komputery i manipulowali adresami internetowymi tak, że użytkownicy trafiali na witryny, których jedynym celem było wyświetlanie reklam. FBI zastąpiło serwery przestępców własnymi maszynami, dzięki czemu komputery zainfekowane przez botnet mogły bez przeszkód łączyć się z internetem. Ponadto FBI było w stanie zidentyfikować zarażone maszyny.
      Jednak Biuro z góry założyło, że zastępcze serwery będą działały tylko przez jakiś czas, by użytkownicy komputerów zarażonych DNSChangerem mieli czas na wyczyszczenie komputerów ze szkodliwego kodu. „Zastępcza sieć“ FBI ma zostać wyłączona właśnie 8 marca. Oznacza to, że komputery, które nadal są zarażone, stracą dostęp do internetu, gdyż będą usiłowały łączyć się z nieistniejącymi serwerami DNS.
      Eksperci ostrzegają, że wiele komputerów wciąż nie zostało wyczyszczonych ze szkodliwego kodu. Z danych firmy ID wynika, że co najmniej 250 z 500 największych światowych firm oraz 27 z 55 największych amerykańskich instytucji rządowych używa co najmniej jednego komputera lub routera zarażonego DNSChangerem. Nieznana jest liczba indywidualnych użytkowników, którzy mogą mieć kłopoty.
      Zespół odpowiedzialny w FBI za zwalczanie DNSChangera rozważa przedłużenie pracy serwerów. Jednak nawet jeśli nie zostaną one wyłączone 8 marca, to niewiele się zmieni. Internauci, zarówno prywatni jak i instytucjonalni, nie dbają o to, co dzieje się z ich komputerami. Można tak wnioskować chociażby z faktu, że największa liczba skutecznych ataków jest przeprowadzonych na dziury, do których łaty istnieją od dawna, jednak właściciele komputerów ich nie zainstalowali. Przykładem takiej walki z wiatrakami może być historia robaka Conficker, który wciąż zaraża miliony maszyn, mimo, że FBI od 2009 roku prowadzi aktywne działania mające na celu oczyścić zeń internet.
      Ponadto, jeśli FBI nie wyłączy swoich serwerów, to DNSChanger nadal będzie groźny. Robak uniemożliwia bowiem pobranie poprawek, co oznacza, że niektóre z zarażonych nim maszyn nie były aktualizowane od wielu miesięcy, a to wystawia je na jeszcze większe niebezpieczeństwo.
      Firmy, które chcą sprawdzić, czy ich komputery zostały zarażone DNSChangerem powinny skontaktować się z witryną DNS Changer Working Group. Użytkownicy indywidualni mogą skorzystać z narzędzia do sprawdzenia komputera.
    • przez KopalniaWiedzy.pl
      Sharp opracował najbardziej wydajne ogniwo słoneczne w historii. Jest ono w stanie zamienić na prąd elektryczny aż 36,9% energii padających nań promieni słonecznych. Wydajność urządzenia została niezależnie potwierdzona przez japoński Narodowy Instytut Zaawansowanych Nauk Przemysłowych i Technologii (AIST).
      Nowe ogniwo składa się z trzech warstw ułożonych na krzemowym podłożu. Warstwę pierwszą, patrząc od podłoża, stanowi arsenek indowo-galowy (InGaAs). Warstwa środkowa została stworzona z  indu i galu (InGa), a warstwa najwyższa to fosforek indowo-galowy (InGaP).
      Sharp od lat jest liderem w rozwoju technologii ogniw słonecznych. W 2003 roku trójwarstwowe ogniwo tej firmy, bez wspomagania koncentracją promieni, osiągnęło wydajność 31,5%. Już rok później z ogniw Sharpa korzystał satelita Reimei.
      W roku 2007 dzięki skoncentrowaniu promieni słonecznych na ogniwie osiągnięto wydajność 40%.
      Dwa lata później trójwarstwowe ogniwo Sharpa pozyskało 35,8% energii z nieskoncentrowanych promieni. Obecnie poprawiono ten wynik o 1,1 punktu procentowego.
    • przez KopalniaWiedzy.pl
      Intel prawdopodobnie pracuje nad ośmiordzeniowym procesorem Atom dla serwerów. Energooszczędne układy cieszą się coraz większym zainteresowaniem ze strony producentów takich maszyn. HP właśnie ogłosił, że będzie oferował swoim klientom serwery z procesorami ARM.
      Intel nie chce pozostać w tyle i, jak twierdzi serwis SemiAccurate, w 2013 roku zaprezentuje ośmiordzeniowego Atoma. Procesor ma bazować na 22-nanometrowym rdzeniu Silvermont wykorzystującym trójbramkowe tranzystory. Prawdopodobnie będzie taktowany częstotliwością wyższą o 20-25 procent od taktowania obecnie dostępnych Atomów.
      Sam Intel nie wspominał o ośmiordzeniowym Atomie. Firma zapowiada jedynie, że w 2013 roku zadebiutuje Atom Silvermont dla notebooków.
    • przez KopalniaWiedzy.pl
      W dokumencie The Data Furnaces: Heating Up with Cloud Computing specjaliści z Microsoft Research proponują ogrzewanie domów ciepłem odpadowym z chmur obliczeniowych. Podobne pomysły nie są niczym nowym, jednak inżynierowie Microsoftu wpadli na nowatorski pomysł tworzenia infrastruktury chmur. Proponują oni mianowicie, by serwerów nie instalować w wielkim centrum bazodanowym, ale... w domach, które mają być przez nie ogrzewane. W ten sposób rachunki w gospodarstwie domowym za ogrzewanie spadłyby niemal do zera. Olbrzymie kwoty, rzędu 280-324 dolarów rocznie od serwera, zaoszczędziliby również właściciele chmur obliczeniowych.
      Autorzy dokumentu przewidują, że serwery byłyby umieszczane w piwnicach domów jednorodzinnych. Właściciele domów byliby zobowiązani do ewentualnego restartowania maszyn w razie potrzeby. Jak twierdzą badacze z Microsoft Research właściciele chmur już od początku zanotowaliby poważne oszczędności. Nie musieliby bowiem ponosić kosztów związanych z budową lub wynajęciem i utrzymaniem pomieszczeń, budową sieci energetycznej i teleinformatycznej, systemu chłodzenia, obniżyliby koszty operacyjne. Z drugiej strony zauważają, że energia elektryczna jest sprzedawana odbiorcom indywidualnym drożej niż odbiorcom biznesowym, zwiększyłyby się koszty konserwacji, gdyż maszyny byłyby rozrzucone do po dużej okolicy, ponadto nie we wszystkich domach dostępne są łącza o wymaganej przepustowości.
      Oczywiście do domów jednorodzinnych trafiałyby niewielkie serwery. Większe maszyny można by ustawiać w biurowcach, gdzie również zapewnią ogrzewanie budynku.
      Analiza pokazała, że największe korzyści odnieśliby mieszkańcy tych stanów, w których ogrzewanie domów pochłania najwięcej pieniędzy.
      Pracownicy Microsoftu twierdzą ponadto, że ich propozycja spowoduje, iż możliwe będzie zwiększenie wydajności chmur obliczeniowych bez jednoczesnego zwiększania zużycia energii w skali kraju. Już przed 5 laty centra bazodanowe zużywały 3% energii produkowanej w USA. Dzięki instalowaniu ich w domach jednorodzinnych będzie można zwiększyć liczbę serwerów, a tym samym zwiększyć ilość zużywanej przez nie energii, co jednak nie spowoduje globalnego wzrostu jej zużycia, gdyż jednocześnie spadnie ilość energii zużywanej przez gospodarstwa domowe do ogrzewania.
      W analizie Microsoftu zabrakło jednak odniesienia się do kwestii bezpieczeństwa czy sytuacji awaryjnych, takich jak np. przerwy w dostawie prądu.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...