Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Microsoft pokazał Windows Azure

Rekomendowane odpowiedzi

Microsoft zaprezentował platformę Windows Azure, znaną dotychczas pod kodową nazwą STRATA. Azure to skalowalne środowisko hostingowe, w którym developerzy będą mogli umieszczać swoje oprogramowanie udostępniane następnie użytkownikom.

Platforma ma działać w składającej się z tysięcy serwerów "chmurze" utrzymywanej i zarządzanej przez Microsoft. Główne elementy Azure to usługi Live, Dynamics CRM, .NET, SQL i SharePoint. W microsoftowym środowisku będą mogły pracować też rozwiązania i aplikacje firm trzecich, takie jak Eclipse czy PHP. Zostaną w nim udostępnione liczne narzędzia dla biznesu i developerów. Pomysł jest taki, aby użytkownik mógł z każdego miejsca na świecie skorzystać z mocy obliczeniowej chmury - mówi Bob Muglia, wiceprezes ds. serwerów i narzędzi biznesowych.

W przyszłości w ten właśnie sposób Microsoft chce dostarczać firmom swoje wszystkie rozwiązania. Będą więc one mogły korzystać z online'owych narzędzi, dzięki czemu pracownicy zyskają do nich swobodny dostęp. Wszelkie dane firma będzie mogła synchronizować ze swoimi serwerami.

Wśród najważniejszych zalet platformy Microsoft wymienia fakt, że developerzy nie będą musieli uczyć się obsługi nowych narzędzi, skorzystają w niej bowiem z tych, które już znają. Ponadto Azure zapewnia bezpieczeństwo zarówno samych aplikacji, które osiągnięto dzięki całej sieci firewalli oraz izolacji hiperwizora, jak i użytkowników. W platformie zastosowano rozwiązania do zarządzania użytkownikami, a więc developerzy nie będą musieli wprowadzać w swoich produktach żadnych tego typu mechanizmów. Azure korzysta z otwartych standardów i współpracuje z rozwiązaniami firm trzecich. Koncern z Redmond zapewnia również, że dostęp do Azure'a będziemy mogli zyskać w każdym momencie, co osiągnięte zostanie dzięki redundancji sprzętu oraz analizie i balansowaniu ruchu. Takie rozwiązanie daje gwarancję, że awaria części komputerów w chmurze nie spowoduje, iż nagle stracimy dostęp do swoich aplikacji.

Rynek "chmur obliczeniowych" rozwija się szybkim tempie. Swoje chmury zaprezentowały już Amazon i Google. Teraz Microsoft postanowił użyć potężnej broni, jaką jest Windows. Bez wątpienia oferta z Redmond będzie atrakcyjna dla biznesu, który w większości od lat korzysta właśnie z rozwiązań Microsoftu. Rynek jest na tyle duży, że obecnie mówi się nie tyle o konkurencji pomiędzy Amazonem, Google'em i Microsoftem, a o tym, jaki wpływ pojawienie się chmur będzie miało na producentów sprzętu. Im więcej firm będzie przenosiło swoje centra obliczeniowe i bazodanowe do chmur, tym mniej sprzętu i oprogramowania będą kupowały. Pozostanie mniej kupców, którzy z kolei będą dokonywali większych zakupów. To będzie miało olbrzymi wpływ na takie firmy jak HP, Dell czy IBM. Eksperci już mówią o konsolidacjach, które czekają nas w przyszłości. Obecnie wiadomo, że sprzęt do obsługi Azure zostanie dostarczony przez Della.

Na razie jednak pozostaje czekać, aż Microsoft udostępni Azure. Obecnie nie jest ona jeszcze gotowa do rynkowego debiutu. Korzystanie z platformy będzie oczywiście płatne. Ceny będą zależały od mocy obliczeniowych i aplikacji, z jakich klient będzie korzystał.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Bez wątpienia oferta z Redmond będzie atrakcyjna dla biznesu, który w większości od lat korzysta właśnie z rozwiązań Microsoftu.

Dla biznesu... Microsoft chyba zapomina, że należy też dbać o zwykłego, szarego, usera, a nie tylko o klientów biznesowych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla biznesu... Microsoft chyba zapomina, że należy też dbać o zwykłego, szarego, usera, a nie tylko o klientów biznesowych.

Szaremu użytkownikowi taka moc obliczeniowa nie jest potrzebna.

A nawet gdyby mu do czegoś była potrzebna to i tak za "(po)chmurny" dzień zapłaci mniej, niż za sprzęt który by musiał zakupić aby wykonać te same obliczenia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe tylko jak z bezpieczeństwem danych przechowywanych w takiej chmurce? kto ma do nich dostęp tak na prawdę? nie od dziś wiadomo, że administratorzy podglądają wszystko co tylko się da. Firmy raczej wolą mieć własny intranet lub własne serwery 'chmurki' bo wiedzą, że tylko ich pracownicy mają do nich dostęp. Ciekaw jestem jak MS przekona do siebie ludzi :] Bo jak narazie to za wiele szczegółów nie ma.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Szaremu użytkownikowi taka moc obliczeniowa nie jest potrzebna.

A nawet gdyby mu do czegoś była potrzebna to i tak za "(po)chmurny" dzień zapłaci mniej, niż za sprzęt który by musiał zakupić aby wykonać te same obliczenia.

Zgodzę się. Ale chodzi mi o ogólną politykę Microsoftu. Wszystko jest robione pod biznes. Przypomina mi to trochę oferty operatorów telefonii komórkowej. Wszystko ładnie, pięknie, tanio tylko, że jak masz firmę i płacisz 200zł abonamentu ;D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zgodzę się. Ale chodzi mi o ogólną politykę Microsoftu. Wszystko jest robione pod biznes. Przypomina mi to trochę oferty operatorów telefonii komórkowej. Wszystko ładnie, pięknie, tanio tylko, że jak masz firmę i płacisz 200zł abonamentu ;D

Nie ma się co dziwić - w końcu nie od dzisiaj wiadomo że "biznes is biznes" :D

A ogólna polityka Microsoftu jak i innych firm to "zarobić jak najwięcej". Ja się temu nie dziwię.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Otóż to. Co więcej, jeżeli tylu użytkowników mimo to korzysta z Windowsa, to świadczy to o jednej z dwóch rzeczy: albo są to ludzie mocni wyłącznie w gadaniu, albo skierowana do nich oferta MS wcale nie jest taka zła.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Otóż to. Co więcej, jeżeli tylu użytkowników mimo to korzysta z Windowsa, to świadczy to o jednej z dwóch rzeczy: albo są to ludzie mocni wyłącznie w gadaniu, albo skierowana do nich oferta MS wcale nie jest taka zła.

Bo napisać głupotę na forum to 5 minut, a zmienić system, parę godzin. Zwykłe nieróbstwo, a nie moc gęby.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Bo napisać głupotę na forum to 5 minut, a zmienić system, parę godzin. Zwykłe nieróbstwo, a nie moc gęby.

Chyba nie myślisz, że przeciętny Kowalski, dla którego nie istnieje system operacyjny (dla niego istnieje Windows) jest w stanie samemu zainstalować i skonfigurować Linuksa? Nawet jeśli by zainstalował to brak guzika start i inny design przyprawiał by go o zakłopotanie. Przyzwyczajenie to chyba najbardziej trzymający ludzi czynnik przy systemie operacyjnym.

Pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chyba nie myślisz, że przeciętny Kowalski, dla którego nie istnieje system operacyjny (dla niego istnieje Windows) jest w stanie samemu zainstalować i skonfigurować Linuksa?

OCZYWIŚCIE, że jest.

 

Nawet jeśli by zainstalował to brak guzika start i inny design przyprawiał by go o zakłopotanie.

No, straszne rzeczy. Zamiast napisu "Start" masz napis "K". Na pewno jako skrót od "Koszmar".

 

Chciałbym tylko nieśmiało napomknąć, że przejście z XP na Vistę jakoś się szaremu Kowalskiemu udało, więc z łaski swojej przestań robić problem z niczego, bo KDE od XP wcale nie różni się bardziej od Visty.

 

Przyzwyczajenie to chyba najbardziej trzymający ludzi czynnik przy systemie operacyjnym.

Czyli jednak idzie o nieróbstwo?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chyba nie myślisz, że przeciętny Kowalski, dla którego nie istnieje system operacyjny (dla niego istnieje Windows) jest w stanie samemu zainstalować i skonfigurować Linuksa? Nawet jeśli by zainstalował to brak guzika start i inny design przyprawiał by go o zakłopotanie. Przyzwyczajenie to chyba najbardziej trzymający ludzi czynnik przy systemie operacyjnym.

Pozdrawiam

Na pewno jest w stanie, oczywiście, jeżeli ma taką potrzebę (w sensie ma obawy co do traktowania go przez providera systemu - Ty np. takie wyraziłeś o MS). Ja np. takiej nie mam, więc nawet nie zamierzam marnować czasu na zmianę systemu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie, żeby było jasne: nie jestem uzależniony od Windowsa, na co dzień używam Windowsa i Linuksa równolegle. Przesiadka ze "Start" na "K" nie stanowi dla mnie problemu o czym świadczy zdanie powyżej. :D Stanąłem tylko po stronie ludzi, którzy nawet nie wiedzą jak korzystać z alternatywnych systemów (oczywiście to ich problem, ale chciałem być wyrozumiały). Nie wierzę, że nie spotkaliście takich userów. Może użyłem złego słowa na ich określenie ("przeciętny Kowalski"), przepraszam, za nieścisłości z mojej strony. Ale nie widzę powodu do takich nerwów :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Powtarzam: gdyby migracja na inny system faktycznie była problemem, wówczas ludzie nie zmienialiby XP na Vistę. Dla mnie to dostateczny powód, by sądzić, że chodzi o zwykłe ludzkie lenistwo. Takiej postawy bronić ani rozumieć nie zamierzam :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gdyby zmiana systemu operacyjnego wiązała się tylko (głownie?) ze zmianą interfejsu użytkownika to by była bułka z masłem którą wielu by przełknęło ze smakiem.... jednak, Mr. Kowalski na takim świeżutkim linuxie chętnie by sobie dokument jakiś napisał w Wordzie oczywiście, a to niespodzianka, Word nie działa. Podobnie z milionami innych programów których nagle nie ma i zainstalować nie można. Trzeba szukać odpowiedników linuxowych, tyle że warto by je poznac jeszcze bo różnią się niekiedy dość wyraźnie od windowsowych - i tu leży kolejna kłoda pod nogami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale wszystkie programy są opisane w dziecinnie prosty sposób, np. "Edytor tekstu - Oo.org Writer". Nie ma kłopotu.

 

Poza tym chciałbym przypomnieć, że KDE, w przeciwieństwie do Windowsa, zdecydowaną większość potrzebnych programów  oferuje od momentu zainstalowania systemu. Wniosek dla mnie jest prosty: jeśli Kowalski jest na tyle sprytny, że odnajdzie, pobierze i zainstaluje program pod Windowsa, to tym bardziej poradzi sobie z wybraniem go z menu pod KDE>

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystko wymaga czasu. Jeżeli ktoś czuje się oszukiwany przez MS to musi być świadomy, że spędzi parę godzin przy konfiguracji nowego systemu - to wszystko.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ludzie nie zmienialiby XP na Vistę

 

ludzie nie zmieniają masowo xp na vistę, tylko wciska się ją ludziom, którzy kupują nowy a najczęściej zarazem pierwszy komputer czy też laptop. taki nieświadomy bierze ją i tyle. każdy kto zna xp i poużywał trochę visty wie, że przejście z xp na viste jest jak zamiana człowieka w bezmózgie yeti.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja nie mówię, że nie masz racji. Ale fakt jest faktem, że radzą sobie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prawda jest taka, że przeciętnemu Kowalskiemu starcza ten system który ma zainstalowany - czy to windows, linux, czy macos. Ale modnie i fajnie tak popluć na kogoś i podpisać się "gall anonim".

Mnie osobiście nie interesuje czy mam dziurę w systemie czy w przeglądarce, bo nikt mi zdjęć z wakacji nie będzie chciał ukraść. Jak ktoś ma trochę oleju w głowie, to potrafi się zabezpieczyć. Może darmowy prosty antuwirus, może firewall, a może oprogramowanie tylko z zaufanych witryn. Normalnym ludziom to starcza. Reszta potrafi zabezpieczyć dobrze swoje ważne dane. A plują na kogoś wszyscy :/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ja lubię porównywać Windowsa do sekty lub nawet religii, każdy z windy korzysta bo na niej go "ochrzczono" (pierwszy system jaki poznał, dot. ok 90% społeczeństwa) i reszta ludzi z jego otoczenia również, z rzadka zdarza się jakiś innowierca (np. linux'iarz, mac'owiec), który raczej budzi ciekawość, kolega np. swojej bratowej zainstalował na jej laptopie (pierwszym komputerze w życiu) Mandrive i jak kobiecina siadła kiedyś do Windowsa to nie mogła się połapać co gdzie jest, można powiedzieć że wybór OS'a ma raczej podłoże "kulturowe" :D i zależy od tego na czym się ktoś wychował, ja też zaczynałem od windy ale z ciekawości spróbowałem Linuxa (Slack, Ubuntu) i używam ich do dzisiaj, tak samo z religią, jak się nie przekonasz, że może być jakaś lepsza, bardziej interesująca (dla Ciebie ofkoz) alternatywa to zostaniesz przy tym co znasz...

 

PS: wiem że śmieszne porównanie

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed dwoma laty Microsoft rozpoczął interesujący eksperyment. Firma zatopiła u wybrzeża Orkadów centrum bazodanowe. Teraz wydobyto je z dna, a eksperci przystąpili do badań dotyczących jego wydajności i zużycia energii. Już pierwsze oceny przyniosły bardzo dobre wiadomości. W upakowanym serwerami stalowym cylindrze dochodzi do mniejszej liczby awarii niż w konwencjonalnym centrum bazodanowym.
      Okazało się, że od maja 2018 roku zawiodło jedynie 8 a 855 serwerów znajdujących się w cylindrze. Liczba awarii w podwodnym centrum bazodanowym jest 8-krotnie mniejsza niż w standardowym centrum na lądzie, mówi Ben Cutler, który stał na czele eksperymentu nazwanego Project Natick. Eksperci spekulują, że znacznie mniejszy odsetek awarii wynika z faktu, że ludzie nie mieli bezpośredniego dostępu do serwerów, a w cylindrze znajdował się azot, a nie tlen, jak ma to miejsce w lądowych centrach bazodanowych. Myślimy, że chodzi tutaj o atmosferę z azotu, która zmniejsza korozję i jest chłodna oraz o to, że nie ma tam grzebiących w sprzęcie ludzi, mówi Cutler.
      Celem Project Natic było z jednej strony sprawdzenie, czy komercyjnie uzasadnione byłoby tworzenie niewielkich podwodnych centrów bazodanowych, która miałyby pracować niezbyt długo. Z drugiej strony chciano sprawdzić kwestie efektywności energetycznej chmur obliczeniowych. Centra bazodanowe i chmury obliczeniowe stają się coraz większe i zużywają coraz więcej energii. Zużycie to jest kolosalne. Dość wspomnieć, że miliard odtworzeń klipu do utworu „Despacito” wiązało się ze zużyciem przez oglądających takiej ilości energii, jaką w ciągu roku zużywa 40 000 amerykańskich gospodarstw domowych. W skali całego świata sieci komputerowe i centra bazodanowe zużywają kolosalne ilości energii.
      Na Orkadach energia elektryczna pochodzi z wiatru i energii słonecznej. Dlatego to właśnie je Microsoft wybrał jako miejsce eksperymentu. Mimo tego, podwodne centrum bazodanowe nie miało żadnych problemów z zasilaniem. Wszystko działało bardzo dobrze korzystając ze źródeł energii, które w przypadku centrów bazodanowych na lądzie uważane są za niestabilne, mówi jeden z techników Project Natick, Spencer Fowers. Mamy nadzieję, że gdy wszystko przeanalizujemy, okaże się, że nie potrzebujemy obudowywać centrów bazodanowych całą potężną infrastrukturą, której celem jest zapewnienie stabilnych dostaw energii.
      Umieszczanie centrów bazodanowych pod wodą może mieć liczne zalety. Oprócz już wspomnianych, takie centra mogą być interesującą alternatywą dla firm, które narażone są na katastrofy naturalne czy ataki terrorystyczne. Możesz mieć centrum bazodanowe w bardziej bezpiecznym miejscu bez potrzeby inwestowania w całą infrastrukturę czy budynki. To rozwiązanie elastyczne i tanie, mówi konsultant projektu, David Ross. A Ben Cutler dodaje: Sądzimy, że wyszliśmy poza etap eksperymentu naukowego. Teraz pozostaje proste pytanie, czy budujemy pod wodą mniejsze czy większe centrum bazodanowe.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...