Jump to content
Forum Kopalni Wiedzy

Recommended Posts

W dokumencie The Data Furnaces: Heating Up with Cloud Computing specjaliści z Microsoft Research proponują ogrzewanie domów ciepłem odpadowym z chmur obliczeniowych. Podobne pomysły nie są niczym nowym, jednak inżynierowie Microsoftu wpadli na nowatorski pomysł tworzenia infrastruktury chmur. Proponują oni mianowicie, by serwerów nie instalować w wielkim centrum bazodanowym, ale... w domach, które mają być przez nie ogrzewane. W ten sposób rachunki w gospodarstwie domowym za ogrzewanie spadłyby niemal do zera. Olbrzymie kwoty, rzędu 280-324 dolarów rocznie od serwera, zaoszczędziliby również właściciele chmur obliczeniowych.

Autorzy dokumentu przewidują, że serwery byłyby umieszczane w piwnicach domów jednorodzinnych. Właściciele domów byliby zobowiązani do ewentualnego restartowania maszyn w razie potrzeby. Jak twierdzą badacze z Microsoft Research właściciele chmur już od początku zanotowaliby poważne oszczędności. Nie musieliby bowiem ponosić kosztów związanych z budową lub wynajęciem i utrzymaniem pomieszczeń, budową sieci energetycznej i teleinformatycznej, systemu chłodzenia, obniżyliby koszty operacyjne. Z drugiej strony zauważają, że energia elektryczna jest sprzedawana odbiorcom indywidualnym drożej niż odbiorcom biznesowym, zwiększyłyby się koszty konserwacji, gdyż maszyny byłyby rozrzucone do po dużej okolicy, ponadto nie we wszystkich domach dostępne są łącza o wymaganej przepustowości.

Oczywiście do domów jednorodzinnych trafiałyby niewielkie serwery. Większe maszyny można by ustawiać w biurowcach, gdzie również zapewnią ogrzewanie budynku.

Analiza pokazała, że największe korzyści odnieśliby mieszkańcy tych stanów, w których ogrzewanie domów pochłania najwięcej pieniędzy.

Pracownicy Microsoftu twierdzą ponadto, że ich propozycja spowoduje, iż możliwe będzie zwiększenie wydajności chmur obliczeniowych bez jednoczesnego zwiększania zużycia energii w skali kraju. Już przed 5 laty centra bazodanowe zużywały 3% energii produkowanej w USA. Dzięki instalowaniu ich w domach jednorodzinnych będzie można zwiększyć liczbę serwerów, a tym samym zwiększyć ilość zużywanej przez nie energii, co jednak nie spowoduje globalnego wzrostu jej zużycia, gdyż jednocześnie spadnie ilość energii zużywanej przez gospodarstwa domowe do ogrzewania.

W analizie Microsoftu zabrakło jednak odniesienia się do kwestii bezpieczeństwa czy sytuacji awaryjnych, takich jak np. przerwy w dostawie prądu.

Share this post


Link to post
Share on other sites

Znając życie, to albo by popsuli, albo majstrowali przy tym. Poza brakiem odniesienia co do kwestii bezpieczeństwa i zapasowych źródeł zasilania brakuje też informacji o zabezpieczeniach przed np. zalaniem, informacji o chłodzeniu i filtrowaniu powietrza. W dużych halach te problemy ulegają znacznemu uproszczeniu, tutaj każda taka piwnica musiałaby być małym bunkrem. Pomysł zdecydowanie poroniony. Już bardziej podoba mi się wcześniejszy pomysł na „eksportowanie” ciepła z takich centrów.

Share this post


Link to post
Share on other sites

Jestem pewien, że specjaliści z M$ wzięli pod uwagę awaryjność domowego zasilania i internetu.

Share this post


Link to post
Share on other sites

Nie no, jasne, że musieli wziąć. Tylko, że w przypadku tak maleńkiego projektu jakim jest piwnica domu wszystkie te zabezpieczenia muszą zostać umieszczone dla każdej piwnicy z osobna, a to radykalnie podnosi koszt przedsięwzięcia. To co jest tylko częścią kosztów w przypadku farmy serwerów tutaj byłoby istotnym czynnikiem. Możliwe, że kwestia awaryjnej linii zasilania jest rozwiązana np. dla całego kwartału, ale w końcu to tylko jeden z wielu podsystemów.

Share this post


Link to post
Share on other sites

Nie no, jasne, że musieli wziąć. Tylko, że w przypadku tak maleńkiego projektu jakim jest piwnica domu wszystkie te zabezpieczenia muszą zostać umieszczone dla każdej piwnicy z osobna, a to radykalnie podnosi koszt przedsięwzięcia.

 

A to nie jest tak, że chmura z definicji jest odporna na awarie?

Bardziej interesujące jest pytanie o bezpieczeństwo informacji. W takim rozproszonym modelu łatwo uzyskać fizyczny dostęp do serwera.

Share this post


Link to post
Share on other sites
Guest simian raticus

Budować się trzeba na Florydzie albo w Afryce! gdzie ciepło! lepianki robić albo igla z centralnym!

Share this post


Link to post
Share on other sites

wilk masz racje pomysł do kitu.

Jest jeszcze jedne porblem co zrobić z nadprodukcja ciepła która może powstać lub jego niedoborem? Rozproszenie tego wcale nie pomaga. Jeśli mamy klimat jak u nas musimy zakładać ze temp spadnie nam do -30 a dom musimy ogrzać i musimy mieć taki zapas mocy. Jak go nie będziemy mieć musimy mieć coś innego do dogrzania. Albo moc procesora będzie niewykorzystana.

 

Jajcenty rozpraszasz moc obliczeniową ale gdzieś indziej dostajesz w czapę bo chmura jest niby odporna ale tworzysz nowe zagrożenia rozbudowaną infrastrukturą telekomunikacyjną. To co zaoszczędzisz w domu na wykorzystaniu ciepła wygenerujesz na transferze danych po kablach. To co w serwerowni jest sprawa błahą przy takim rozproszeniu urasta do rangi problemu.

Share this post


Link to post
Share on other sites

A to nie jest tak, że chmura z definicji jest odporna na awarie?

 

Zasadniczo wszystko zależy od projektu… Czy to ma być część czegoś większego, czy też jakaś firma potrzebuje swojego data center. Ale jeśli faktycznie ma to być profesjonalne, to replikacja danych jest standardem. No, ale bez zabezpieczeń spali się, zaleje, szczur przegryzie kabel, a to dodatkowe koszta.

 

Jest jeszcze jedne porblem co zrobić z nadprodukcja ciepła która może powstać

 

Ha, dokładnie! Takie obiekty mają dostępności rzędu 99,99% (i więcej) w skali roku, więc generują praktycznie stałą ilość ciepła 24/7/365. Jeśli w lecie trzeba przez to dodatkowo chłodzić dom, to nie wiem czy wcale tak ekonomicznie będzie. No ale fakt, koszta przeniosą się z właściciela domu na firmę.

Share this post


Link to post
Share on other sites

Ha, dokładnie! Takie obiekty mają dostępności rzędu 99,99% (i więcej) w skali roku, więc generują praktycznie stałą ilość ciepła 24/7/365. Jeśli w lecie trzeba przez to dodatkowo chłodzić dom, to nie wiem czy wcale tak ekonomicznie będzie. No ale fakt, koszta przeniosą się z właściciela domu na firmę.

 

Amerykańskie domy są w większości ogrzewane nadmuchem ciepłego powietrza z pieca umieszczonego w piwnicy. Jak rozumiem tu będzie nadmuch z wydzielającej ciepło elektroniki, też umieszczonej w części podziemnej. Na lato wystarczy wylot ciepłego powietrza po prostu skierować na zewnątrz przez ścianę czy do komina.

Share this post


Link to post
Share on other sites

Budować się trzeba na Florydzie albo w Afryce! gdzie ciepło! lepianki robić albo igla z centralnym!

 

zdechlak, prosiłbym o zachowanie umiaru w pisaniu komentarzy nie mających związku lub nic nie wnoszących do tematu. Zawalasz całe forum swoją radosną twórczością, która ma charakter naprawdę marnego trollowania. Zwracałem Ci ostatnio uwagę na PM (w tym roku niejednokrotnie), ale widzę, że nie dociera to do Ciebie.

Share this post


Link to post
Share on other sites

Tak i nie.

Rzeczywiście koszty "ochrony" na 1 serwer byłyby większe niż koszty w dużej serwerowni. Ale...

przecież w chmurze taki serwer może po prostu paść i nic się nie dzieje.

Dlatego nie trzeba dodatkowego zasilania. Brakuje zasilania to brakuje, co to zmienia? Są inne serwery.

Zakłada się np. że dane muszą być przechowywane na minimum 5 serwerach w różnej lokalizacji.

I to jest mocne zabezpieczenie, nie trzeba zasilania awaryjnego.

Jest to także swego rodzaju przyszłość. Nie bez powodu do pewnych zadań używa się właśnie sieci takich domowych komputerów i radzą sobie całkiem dobrze.

Share this post


Link to post
Share on other sites

Rozproszenie chmury powoduje dodatkowe komplikacji i narzuty energii na wymianę informacji miedzy powiedzmy nodami. Co w przyadku serwerowni nie istnieje jako większy porblem. Rozproszenie chmury powoduje też niebezpieczeństwo ze jakaś tam koparka nagle wyłączy z chmury jedno miasto lub wręcz całą chmurę bo na przykład ogrzewanie z miasta x czy y to była jedna wielka chmura. Rozpraszanie chmur po rożnych lokalizacjach geograficznych tylko zwiększa ilości przesyłanych danych przez analogie do roboczo godzin nazwał bym to bitokilometrem. Nad tym nie sposób zapanować.

Kolejny porblem jest taki ze chmura chmurze nie równa no i generalnie dziś chmura to bardziej bełkot marketingowy niż realne rozwiązania. Z grubsza wiadomo co by to miało być i coś takiego jest klientowi powiedzmy sprzedawane ale realizacja tego wcale nie musi wyglądając tak jak klient myśli.

 

No i chciał bym jeszcze wrócić do problemu mocy. Powiedzmy ze moc cieplną jaka sprzęt oddaje, pobór prądu przez serwer czy też jego obciążenie możemy z grubsza traktować podobnie bo będą to wartości jakoś tam skorelowane.

I teraz co potrzebujemy a no potrzebujemy maksymalną moc zainstalowaną. Jak nam temperatura spadnie na dworze do -30 to nas to musi zagrzać albo jest rozwiązaniem bez sensu. Ale co za tym idzie mamy pewien zapas de facto mocy obliczeniowej który będzie w lecie niewykorzystany. Bo teraz jazda na pełnej mocy spowoduje naddatek ciepła i jego utratę albo wręcz koniecznosc aktywnego chłodzenia.

I do czego.. a no do wniosków ze albo to się nie nadaje do ogrzewania albo ze cała idea chmury wraz z wyznawcami "chmuryzmu" jest do kitu już u jej zarania. Bo komutery w serwerowni pod względem cieplnym są chmurą i agregują ciepło w jednym miejscu które można efektywnie wykorzystać. I nagle okazuje się ze pomysłem na budowanie chmury jest jej rozproszenie i wsadzenie każdemu do domu serwera żeby mógł mieć zamiast kompa stacjonarnego dane w chmurze. Ktoś tu jednak z kogoś robi idiotę...

 

No i mamy kolejny porblem tak jak transfer danych generuje problem tak i zasilanie. Ogromną serwerownie lepiej wybudować koło elektrowni żeby zmniejszyć straty przesyłowe. Lepiej podciągnąć linie pod serwerownie i postawić transformator bo to są mniejsze straty niż zasilać ta samą serwerownie liniami niskiego napięcia bo ogrzejemy jeszcze przy okazji powietrze. 

No i na koniec ogrzewanie prądem wcale nie jest tanie ani ekologiczne a w tym przyadku będziemy mieć przejście z ogrzewania na rożne sposoby na ogrzewanie elektryczne co tez nie pozostanie bez wpływu na sieci przesyłowe.

Share this post


Link to post
Share on other sites

Rozproszenie chmury powoduje też niebezpieczeństwo ze jakaś tam koparka nagle wyłączy z chmury jedno miasto lub wręcz całą chmurę bo na przykład ogrzewanie z miasta x czy y to była jedna wielka chmura.

 

Jest dokładnie odwrotnie. Ryzyko utraty centrum obliczeniowego na skutek aktywności koparki czy złomiarzy jest dużo wyższe od ryzyka utraty miasta.

Po to DARPA kazała wynaleźć Internet.

 

I teraz co potrzebujemy a no potrzebujemy maksymalną moc zainstalowaną. Jak nam temperatura spadnie na dworze do -30 to nas to musi zagrzać albo jest rozwiązaniem bez sensu.

 

Ma sens jako wspomagające źródło ciepła. W zimie użytkownik modli się o jak największe obciążenie a w lecie przełącza wywiew na zewnątrz.

Większość teraźniejszego sprzętu doskonale pracuje w warunkach domowych. Centra mogą przyoszczędzić na prądzie i klimatyzacji. Jak to nie jest win-win...

 

 

komutery w serwerowni pod względem cieplnym są chmurą i agregują ciepło w jednym miejscu które można efektywnie wykorzystać.

 

Fakt. Pierwszy raz się mogę zgodzić. Niestety to ciepło ma już dużo entropii i nie nadaje się do przerobienia na prąd. A w centrach potrzebujemy prądu, nie ciepła. Chyba, że potraktujemy centra jako elektrociepłownie i będziemy posyłać wodę o temp 60 stopni do pobliskiego miasteczka - potrzeba dodatkowej infrastruktury.

 

I nagle okazuje się ze pomysłem na budowanie chmury jest jej rozproszenie i wsadzenie każdemu do domu serwera żeby mógł mieć zamiast kompa stacjonarnego dane w chmurze. Ktoś tu jednak z kogoś robi idiotę...

 

Pomysł może się przyjąć jeśli okaże się, że obie strony zyskują. Koszty ogrzewania, koszty zasilania, koszty klimatyzowania. Jedyne co mnie by powstrzymało od przyjęcia pod swój dach kawałka chmurki to szum wentylatorów.

 

 

No i mamy kolejny porblem tak jak transfer danych generuje problem tak i zasilanie.

 

I tak będzie sieć w każdym domu. Infrastruktura będzie i będzie żarła prąd w nawet trybie idle.

 

No i na koniec ogrzewanie prądem wcale nie jest tanie ani ekologiczne

 

Tanie nie jest. Ale ekologiczność zależy od źródła.

Share this post


Link to post
Share on other sites

Odnośnie szumu wentylatorów, to on jest ale prawie niesłyszalny. Tak jak pisałem większość domów w ameryce to ogrzewanie centralne powietrzne- dużymi kanałami z powolnym przepływem ciepłego powietrza.

Klima chyba bardziej szumi.

Zresztą u nas też ostatnio moda na ogrzewanie ciepłym powietrzem z kominków.

Share this post


Link to post
Share on other sites

Szumu jednego wiatraka może tak, ale nie kilkunastu plus dyski plus wentylacja. Ale to akurat żaden problem, bo da się to wytłumić poza strefą serwerowni.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Xinwei Wang, profesor z Iowa State University, dowiódł, że nić pajęcza przewodzi ciepło równie dobrze jak metal. Uczony specjalizuje się w poszukiwaniu naturalnych przewodników ciepła.
      Wiadomo, że takimi przewodnikami są diamenty, miedź czy aluminium, ale większość naturalnych materiałów bardzo słabo przewodzi ciepło. Środowisko naukowe od pewnego czasu spekulowało, że nić pajęcza może być przewodnikiem ciepła, ale nikt tego dotychczas nie badał.
      Wang zaprzągł do pracy osiem pająków z gatunku Nephila clavipes, które żywił w klatkach. Pozyskaną od nich sieć poddał testom i odkrył, że jest ona zadziwiająco dobrym przewodnikiem. Transportuje ona ciepło 1000-krotnie lepiej niż przędza jedwabnika i 800 razy lepiej niż inne naturalne tkanki. Jest w tym nawet lepsze od... miedzi. Przewodność cieplna nici pajęczej wynosi bowiem 416 watów na metr-kelwin, podczas gdy miedzi - 401 W/(m-K). Przędza pająka jest niewiele gorsza od srebra, którego przewodność cieplna to 429 W/(m-K).
      „Nasze odkrycie zmieni pogląd, jakoby materiały biologiczne charakteryzowały się niską przewodnością cieplną“ - stwierdził Wang.
      Kolejną zadziwiającą właściwością pajęczych nici jest fakt, że ich przewodność cieplna rośnie w miarę rozciągania. W większości materiałów przewodność cieplna spada gdy są rozciągane. Tymczasem uczony rozciągnął nić o 20% i uzyskał wzrost jej przewodności cieplnej również o 20%.
      Zdaniem Wanga badany przez niego materiał charakteryzuje się tak dobrą przewodnością gdyż na poziomie molekularnym pozbawiony jest defektów, zawiera proteiny z nanokryształami oraz przypominające sprężyny struktury łączące proteiny. Uczony zastanawia się, czy nie można będzie tak zmodyfikować przędzy pajęczej, by zwiększyć jej przewodność.
      Nowo odkryte właściwości nici pająka mogą posłużyć do stworzenia lepszej odzieży ochronnej, systemów odprowadzania ciepła z elektroniki, bandaży, które nie będą zatrzymywały ciepła i wielu innych przydatnych przedmiotów.
    • By KopalniaWiedzy.pl
      AMD poinformowało, że za kwotę 334 milionów dolarów kupi producenta mikroserwerów firmę SeaMicro. Po tej zapowiedzi akcje AMD poszły w górę o 2%.
      Analitycy uważają, że co prawda zakup SeaMicro nie wpłynie w najbliższym czasie na działanie AMD, ale będzie miał znaczenie w przyszłości. Połączenie technologii obu firm pozwoli AMD na stworzenie bardzo interesującej oferty na rynek chmur obliczeniowych i centrów bazodanowch.
      Przedstawiciele AMD poinformowali, że interesuje ich technologia SeaMicro i maja nadzieję, że będą mogli licencjonować ją innym producentom tanich w utrzymaniu serwerów.
      Transakcja to jednocześnie cios w Intela, który ma ścisłe związki z tą firmą. Obecnie wszystkie serwery SeaMicro korzystają z procesorów Atom. Jeszcze kilka tygodni temu odbyła się wspólna konferencja prasowa Intela i SeaMicro, podczas której przedstawiciele Intela chwalili mniejszą firmę.
      AMD zapowiada, że maszyny z Atomem nadal będą sprzedawane. Jednak jeszcze przed końcem bieżącego roku w firmowej ofercie znajdzie się pierwszy serwer z procesorem AMD Opteron.
    • By KopalniaWiedzy.pl
      Międzynarodowy zespół uczonych wpadł na trop rewolucyjnej, niespodziewanej metody zapisu danych na dyskach twardych. Pozwala ona na setki razy szybsze przetwarzanie informacji niż ma to miejsce we współczesnych HDD.
      Naukowcy zauważyli, że do zapisu danych wystarczy jedynie ciepło. Dzięki temu będzie ona zachowywana znacznie szybciej i zużyje się przy tym mniej energii.
      Zamiast wykorzystywać pole magnetyczne do zapisywania informacji na magnetycznym nośniku, wykorzystaliśmy znacznie silniejsze siły wewnętrzne i zapisaliśmy informację za pomocą ciepła. Ta rewolucyjna metoda pozwala na zapisywanie terabajtów danych w ciągu sekundy. To setki razy szybciej niż pracują obecne dyski. A jako, że nie trzeba przy tym wytwarzać pola magnetycznego, potrzeba mniej energii - mówi fizyk Thomas Ostler z brytyjskiego University of York.
      W skład międzynarodowego zespołu, który dokonał odkrycia, wchodzili uczeni z Hiszpanii, Szwajcarii, Ukrainy, Rosji, Japonii i Holandii.
      Doktor Alexey Kimel z Instytutu Molekuł i Materiałów z Uniwersytetu w Nijmegen mówi: Przez wieki sądzono, że ciepło może tylko niszczyć porządek magnetyczny. Teraz pokazaliśmy, że w rzeczywistości jest ono impulsem wystarczającym do zapisania informacji na magnetycznym nośniku.
      Uczeni wykazali, że bieguny w domenach magnetycznych na dysku można przełączać nie tylko za pomocą pola magnetycznego generowanego przez głowicę zapisująco-odczytującą, ale również dzięki ultrakrótkim impulsom cieplnym.
    • By KopalniaWiedzy.pl
      Specjaliści ostrzegają, że 8 marca część użytkowników internetu mogą czekać poważne kłopoty. Właśnie na ten dzień FBI zapowiedziało wyłączenie swoich serwerów, które zastąpiły serwery przestępców, kierujących użytkowników na złośliwe witryny.
      W listopadzie FBI zlikwidowało botnet DNSChanger. Jego twórcy infekowali komputery i manipulowali adresami internetowymi tak, że użytkownicy trafiali na witryny, których jedynym celem było wyświetlanie reklam. FBI zastąpiło serwery przestępców własnymi maszynami, dzięki czemu komputery zainfekowane przez botnet mogły bez przeszkód łączyć się z internetem. Ponadto FBI było w stanie zidentyfikować zarażone maszyny.
      Jednak Biuro z góry założyło, że zastępcze serwery będą działały tylko przez jakiś czas, by użytkownicy komputerów zarażonych DNSChangerem mieli czas na wyczyszczenie komputerów ze szkodliwego kodu. „Zastępcza sieć“ FBI ma zostać wyłączona właśnie 8 marca. Oznacza to, że komputery, które nadal są zarażone, stracą dostęp do internetu, gdyż będą usiłowały łączyć się z nieistniejącymi serwerami DNS.
      Eksperci ostrzegają, że wiele komputerów wciąż nie zostało wyczyszczonych ze szkodliwego kodu. Z danych firmy ID wynika, że co najmniej 250 z 500 największych światowych firm oraz 27 z 55 największych amerykańskich instytucji rządowych używa co najmniej jednego komputera lub routera zarażonego DNSChangerem. Nieznana jest liczba indywidualnych użytkowników, którzy mogą mieć kłopoty.
      Zespół odpowiedzialny w FBI za zwalczanie DNSChangera rozważa przedłużenie pracy serwerów. Jednak nawet jeśli nie zostaną one wyłączone 8 marca, to niewiele się zmieni. Internauci, zarówno prywatni jak i instytucjonalni, nie dbają o to, co dzieje się z ich komputerami. Można tak wnioskować chociażby z faktu, że największa liczba skutecznych ataków jest przeprowadzonych na dziury, do których łaty istnieją od dawna, jednak właściciele komputerów ich nie zainstalowali. Przykładem takiej walki z wiatrakami może być historia robaka Conficker, który wciąż zaraża miliony maszyn, mimo, że FBI od 2009 roku prowadzi aktywne działania mające na celu oczyścić zeń internet.
      Ponadto, jeśli FBI nie wyłączy swoich serwerów, to DNSChanger nadal będzie groźny. Robak uniemożliwia bowiem pobranie poprawek, co oznacza, że niektóre z zarażonych nim maszyn nie były aktualizowane od wielu miesięcy, a to wystawia je na jeszcze większe niebezpieczeństwo.
      Firmy, które chcą sprawdzić, czy ich komputery zostały zarażone DNSChangerem powinny skontaktować się z witryną DNS Changer Working Group. Użytkownicy indywidualni mogą skorzystać z narzędzia do sprawdzenia komputera.
    • By KopalniaWiedzy.pl
      Google Apps for Business zyskały największego jak dotąd klienta. Hiszpański bank BBVA ogłosił, że 110 000 jego pracowników będzie korzystało z oferty Google’a.
      Zdaniem niektórych ekspertów decyzja ta może być punktem zwrotnym dla całego europejskiego rynku chmur obliczeniowych. Skoro duża instytucja finansowa zdecydowała się na korzystanie z zewnętrznej chmury, w jej ślady z czasem mogą pójść inne przedsiębiorstwa.
      Migracja BBVA do chmury Google’a zakończy się prawdopodobnie jeszcze w bieżącym roku. W ramach Google Apps for Business bank zyska dostęp do Gmaila, Google Calendar, Talk, Docs, Groups, Sites i Video.
      Dzięki takiemu ruchowi pracownicy BBVA zyskają dostęp do firmowych dokumentów z dowolnego miejsca na świecie, dzięki czemu staną się bardziej elastyczni i mobilni.
×
×
  • Create New...