Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'chmura obliczeniowa'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 17 results

  1. AMD poinformowało, że za kwotę 334 milionów dolarów kupi producenta mikroserwerów firmę SeaMicro. Po tej zapowiedzi akcje AMD poszły w górę o 2%. Analitycy uważają, że co prawda zakup SeaMicro nie wpłynie w najbliższym czasie na działanie AMD, ale będzie miał znaczenie w przyszłości. Połączenie technologii obu firm pozwoli AMD na stworzenie bardzo interesującej oferty na rynek chmur obliczeniowych i centrów bazodanowch. Przedstawiciele AMD poinformowali, że interesuje ich technologia SeaMicro i maja nadzieję, że będą mogli licencjonować ją innym producentom tanich w utrzymaniu serwerów. Transakcja to jednocześnie cios w Intela, który ma ścisłe związki z tą firmą. Obecnie wszystkie serwery SeaMicro korzystają z procesorów Atom. Jeszcze kilka tygodni temu odbyła się wspólna konferencja prasowa Intela i SeaMicro, podczas której przedstawiciele Intela chwalili mniejszą firmę. AMD zapowiada, że maszyny z Atomem nadal będą sprzedawane. Jednak jeszcze przed końcem bieżącego roku w firmowej ofercie znajdzie się pierwszy serwer z procesorem AMD Opteron.
  2. Google Apps for Business zyskały największego jak dotąd klienta. Hiszpański bank BBVA ogłosił, że 110 000 jego pracowników będzie korzystało z oferty Google’a. Zdaniem niektórych ekspertów decyzja ta może być punktem zwrotnym dla całego europejskiego rynku chmur obliczeniowych. Skoro duża instytucja finansowa zdecydowała się na korzystanie z zewnętrznej chmury, w jej ślady z czasem mogą pójść inne przedsiębiorstwa. Migracja BBVA do chmury Google’a zakończy się prawdopodobnie jeszcze w bieżącym roku. W ramach Google Apps for Business bank zyska dostęp do Gmaila, Google Calendar, Talk, Docs, Groups, Sites i Video. Dzięki takiemu ruchowi pracownicy BBVA zyskają dostęp do firmowych dokumentów z dowolnego miejsca na świecie, dzięki czemu staną się bardziej elastyczni i mobilni.
  3. Firma OXYCOM, specjalizująca się w rozwiązaniach z zakresu cloud computing, zaprezentowała nową usługę, stworzoną z myślą o producentach i użytkownikach oprogramowania. OXYDEMO to narzędzie, umożliwiające wygodne udostępnianie testowych wersji dowolnych aplikacji - bezpośrednio z "chmury", bez konieczności instalowania oprogramowania w komputerze użytkownika. Zasada działania OXYDEMO jest prosta - usługa umożliwia producentom oprogramowania udostępnienie wersji testowych ich produktów w modelu chmurowym. Obecnie istnieją dwie standardowe metody oferowania testowego oprogramowania - tzw. trial (czyli wersja ograniczona czasowo) lub shareware (wersja, z której usunięto pewne funkcje). Obie mają istotną wadę, która nie występuje w OXYDEMO - nie reprezentują pełnej funkcjonalności aplikacji. Dzięki nowemu narzędziu firmy OXYCOM, producent oprogramowania ma znacznie szersze możliwości - może udostępnić użytkownikom (wszystkim zainteresowanym lub tylko wybranym) wersję testową, której nie trzeba pobierać i instalować w systemie, bo działa bezpośrednio w przeglądarce lub trybie terminalowym. Dzięki zaawansowanej technologii, wykorzystywanej przez OXYCOM, możliwe jest testowanie dowolnych programów przez użytkowników całkowicie bezpiecznie, legalnie i szybko przy zachowaniu kontroli nad produktem ze strony jego twórcy. Platforma OXYDEMO pozwala na uruchomienie zwirtualizowanego programu działającego po stronie serwerów OXYCOM i wykorzystanie ich mocy obliczeniowej oraz zasobów. Praca przebiega identycznie, jak w przypadku instalacji lokalnej, lecz użytkownik pozbawiony jest możliwości zapisywania stworzonych dokumentów. Co ważne, autor programu może w pełni decydować o tym, na jakich zasadach udostępniana jest aplikacja - może określić czas trwania testów, ich zakres, a nawet grupę docelową testerów.
  4. Chmury obliczeniowe kojarzą się ze światowymi gigantami, takimi jak Microsoft, Amazon czy Google. Jednak jest to rynek, na którym mogą zaistnieć tez mniejsi gracze. Co ciekawe, znajdują oni dla chmur zaskakujące rozwiązania. Firma Oxycom proponuje na przykład... hostowaną w chmurze centralę telefoniczną dla przedsiębiorstw. e-Centrala IP PABX wykorzystuje technologię cloud computing i umożliwia sprawne zarządzanie komunikacją w firmie, przy jednoczesnej pełnej kontroli kosztów - klient może sam wybrać usługi, z których chce korzystać. Istotnym atutem jest łatwość wdrożenia oraz możliwość podłączenia do istniejącej już w firmie infrastruktury telekomunikacyjnej (z możliwością zachowania wykorzystywanych wcześniej numerów i urządzeń). Jednym z podstawowych atutów e-Centrali IP PABX jest fakt, iż jest dostępna w zasadzie natychmiast po wykupieniu - w formie usługi, bez potrzeby instalacji sprzętu, zapewnienia jego utrzymania itp. Klient unika w tym przypadku kosztownego zakupu sprzętu i opłat związanych z jego instalacją. Co więcej, w razie pojawienia się dodatkowych potrzeb istnieje możliwość rozbudowy podstawowej wersji w dowolnym momencie o kolejne moduły stosownie do wzrostu potrzeb i możliwości finansowych. Rozwiązania zastosowane w IP PABX oparte są na technologii telefonii IP firmy Broadsoft. Użytkownik może korzystać z takich narzędzi jak interaktywna obsługa dzwoniącego (IVR), przekierowywanie połączeń, transfer połączeń (czyli przekierowywanie już trwającego połączenia), fax, poczta głosowa, udzielanie informacji przy połączeniu oczekującym, zawieszanie połączeń czy intergacja z MS Outlook.
  5. W dokumencie The Data Furnaces: Heating Up with Cloud Computing specjaliści z Microsoft Research proponują ogrzewanie domów ciepłem odpadowym z chmur obliczeniowych. Podobne pomysły nie są niczym nowym, jednak inżynierowie Microsoftu wpadli na nowatorski pomysł tworzenia infrastruktury chmur. Proponują oni mianowicie, by serwerów nie instalować w wielkim centrum bazodanowym, ale... w domach, które mają być przez nie ogrzewane. W ten sposób rachunki w gospodarstwie domowym za ogrzewanie spadłyby niemal do zera. Olbrzymie kwoty, rzędu 280-324 dolarów rocznie od serwera, zaoszczędziliby również właściciele chmur obliczeniowych. Autorzy dokumentu przewidują, że serwery byłyby umieszczane w piwnicach domów jednorodzinnych. Właściciele domów byliby zobowiązani do ewentualnego restartowania maszyn w razie potrzeby. Jak twierdzą badacze z Microsoft Research właściciele chmur już od początku zanotowaliby poważne oszczędności. Nie musieliby bowiem ponosić kosztów związanych z budową lub wynajęciem i utrzymaniem pomieszczeń, budową sieci energetycznej i teleinformatycznej, systemu chłodzenia, obniżyliby koszty operacyjne. Z drugiej strony zauważają, że energia elektryczna jest sprzedawana odbiorcom indywidualnym drożej niż odbiorcom biznesowym, zwiększyłyby się koszty konserwacji, gdyż maszyny byłyby rozrzucone do po dużej okolicy, ponadto nie we wszystkich domach dostępne są łącza o wymaganej przepustowości. Oczywiście do domów jednorodzinnych trafiałyby niewielkie serwery. Większe maszyny można by ustawiać w biurowcach, gdzie również zapewnią ogrzewanie budynku. Analiza pokazała, że największe korzyści odnieśliby mieszkańcy tych stanów, w których ogrzewanie domów pochłania najwięcej pieniędzy. Pracownicy Microsoftu twierdzą ponadto, że ich propozycja spowoduje, iż możliwe będzie zwiększenie wydajności chmur obliczeniowych bez jednoczesnego zwiększania zużycia energii w skali kraju. Już przed 5 laty centra bazodanowe zużywały 3% energii produkowanej w USA. Dzięki instalowaniu ich w domach jednorodzinnych będzie można zwiększyć liczbę serwerów, a tym samym zwiększyć ilość zużywanej przez nie energii, co jednak nie spowoduje globalnego wzrostu jej zużycia, gdyż jednocześnie spadnie ilość energii zużywanej przez gospodarstwa domowe do ogrzewania. W analizie Microsoftu zabrakło jednak odniesienia się do kwestii bezpieczeństwa czy sytuacji awaryjnych, takich jak np. przerwy w dostawie prądu.
  6. IBM i Range Technology wybudują w pobliżu Pekinu olbrzymie centrum bazodanowe. Jego twórcy twierdzą, że będzie to największa azjatycka instalacja tego typu. Centrum o powierzchni 620 000 metrów kwadratowych zostanie uruchomione w 2016 roku. Stworzona tam chmura komputerowa służyć przede wszystkim chińskiemu rządowi, jednak zostanie również udostępnione bankom i przedsiębiorstwom prywatnym. Centrum, które będzie własnością Range Technology, stanie w mieście Langfang, położonym ok. 60 kilometrów na północ od Pekinu i będzie wspierało rozwój tworzonego tam huba informatycznego. Wykonawcą chmury będzie IBM. Błękitny Gigant poinformował, że Range Technology wyda w sumie 1,49 miliarda dolarów na Langfang Range International Information Hub, którego częścią będzie wspomniane centrum. Chiny stają się coraz ważniejszym graczem na rynku centrów bazodanowych i chmur obliczeniowych. W ciągu ostatnich czterech lat obroty samego tylko IBM-a zwiększyły się w Państwie Środka o 400 procent. Od ubiegłego roku jest ono, po USA, najważniejszym rynkiem bazodanowym dla IBM-a.
  7. Google wystąpił do sądu przeciwko amerykańskiej administracji rządowej, gdyż firma została wykluczona z przetargu na dostarczenie aplikacji w chmurze. W pozwie czytamy, że Google'owskie Apps for Government nie mogły wziąć udziału w przetargu ogłoszonym przez Departament Spraw Wewnętrznych (DoI), którego celem było skonsolidowanie 13 platform w jednej chmurze i dostarczenie usług 88 000 osób. Pięcioletni kontrakt ma wartość 59 milionów dolarów. W oficjalnym dokumencie przedstawiciele DoI stwierdzili, że po "dokonaniu oceny ryzyka i badań rynkowych" okazało się, że tylko Microsoft "posiada komercyjny produkt, który spełnia wszystkie wymogi określone przez departament". Ofertę Google'a odrzucono, gdyż nie zapewniała odpowiedniego poziomu bezpieczeństwa. Przedstawiciele koncernu Page'a i Brina informują, że odbyli wiele rozmów z urzędnikami DoI, by ich przekonać, że Google Apps spełniają wymogi bezpieczeństwa, jednak powiedziano im, iż decyzja co do wyboru komunikatora już zapadła. Koncern dowiedział się też, że nie spełnia standardów ustawy Federal Information Security Management Act, chociaż obecnie posiada odpowiedni certyfikat. Google wystąpiło do sądu po tym, jak w ubiegłym tygodniu Government Accountability Office - instytucja kontrola Kongresu - odrzuciła skargę koncernu.
  8. Microsoft podpisał z miastem Nowy Jork umowę o przeniesieniu części miejskiej infrastruktury informatycznej do chmury obliczeniowej Azure. Na jej podstawie w ciągu pięciu lat z chmury będzie korzystało 30 000 osób zatrudnianych przez miasto. Otrzymaja oni m.in. takie narzędzia jak poczta elektroniczna, komunikator czy SharePoint. Ponadto z poczty będzie mogło korzystać też 100 000 kolejnych osób, które nie nie mają obecnie poczty służbowej. Microsoft zobowiązał się też do pomocy zarówno miejskim informatykom jak i firmom trzecim w rozwijaniu aplikacji dla platformy Azure. Jeszcze kilka lat temu poszczególne agendy urzędu miejskiego kupowały oprogramowanie indywidualnie. Jednak gdy miastem zaczął rządzić miliarder Michael Bloomberg, postanowiono scentralizować zakupy. Burmistrz zaczął też szukać możliwości przeniesienia części infrastruktury informatycznej do chmury. Na umowie z Microsoftem miasto ma zaoszczędzić 50 milionów dolarów w ciągu pięciu lat. Porozumienie konsoliduje bowiem poprzednie umowy, które istniały pomiędzy New York City a koncernem z Redmond. Ponadto obecnie miasto korzysta z 50 centrów bazodanowych, a dzięki porozumieniu wszystkie przeprowadzane w nich operacje zostaną skonsolidowane w jednym znacznie nowocześniejszym centrum. Prowadzone są też negocjacje w sprawie dostarczenia pracownikom miasta telefonów z systemem Windows Phone 7. Jeden z pracowników ratusza zdradził, że umowa pomiędzy Nowym Jorkiem a Microsoftem to poważny cios dla Google'a i jego próby wejścia na rynek przedsiębiorstw. Koncern Page'a i Brina nie miał najmniejszych szans na podobne porozumienie z Nowym Jorkiem. Przed kilkoma miesiącami okazało się bowiem, że próba przeniesienia pracowników Los Angeles na Google Apps napotkała poważne problemy i miasto doświadczyło spadku produktywności swoich pracowników. Podpisanie umowy z Nowym Jorkiem, największym organizmem miejskim USA, to olbrzymia szansa dla Microsoftu, ale również ważny sprawdzian dla chmur obliczeniowych. Jeśli wszystko pójdzie zgodnie z planem, koncern z Redmond najprawdopodobniej zyska kolejnych wielkich klientów, a biznes przekona się, że chmury mogą być przydatne. Krytycy podobnych rozwiązań twierdzą jednak, że technologia chmur jest zbyt niebezpieczna, by wykorzystywać ją w przedsiębiorstwach. Wiceburmistrz Stephen Goldsmith odpowiada, że miasto będzie domagało się od Microsoftu, by Azure zapewniała taki sam poziom bezpieczeństwa, jaki byłby zapewniany przez własne serwery pozostające pod kontrolą miejskich administratorów.
  9. Cray, legandarny producent superkomputerów, podpisał umowę z Microsoft Research. Może ona przyczynić się do szybszego rozwoju zarówno techniki superkomputerowej jak i chmur obliczeniowych. Microsoft chce, by specjaliści z należącej do Craya grupy Custom Engineering pomogli zaprojektować platformę dla chmur obliczeniowych przyszłości. Dzięki umowie, do Craya trafią pieniądze, które zostaną wykorzystane na dalsze badania nad superkomputerami. Umowa przewiduje współpracę ekspertów ze wspomnianej już Custom Engineering ze specjalistami z microsoftowego wydziału Extreme Computing Group. Jej szczegóły nie zostały ujawnione. Warto jednak wspomnieć o fakcie, że współpraca z Microsoftem oznacza, że Cray, po raz pierwszy w historii, zaangażuje się w projektowanie systemu na zamówienie firmy zewnętrznej. Dotychczas przedsiębiorstwo skupiało się na badaniach naukowych i technicznych nad superkomputerami. Microsoft od paru lat coraz bardziej interesuje się rynkiem wysoko wydajnych komputerów, a od niedawna rozwija chmurę obliczeniową Azure.
  10. Narodowa Fundacja Nauki i Microsoft podpisały trzyletnią umowę, na podstawie której amerykańscy uczeni zyskają dostęp do chmury obliczeniowej Azure. Obie organizacje odmówiły udzielenie informacji, ile warta jest umowa. Jednak Dan Reed, wiceprezes Microsoftu ds. strategii i polityki zdradził, że jego firma ma zamiar zainwestować miliony dolarów w rozwój Azure, a chmura wesprze tysiące projektów naukowych. Wiadomo też, że dostęp do chmury będzie udzielany w formie grantów NSF, przyznawanych nowym i już prowadzonym projektom. Instytucje naukowe mają co prawda dostęp do superkomputerów, jednak coraz częściej zwraca się uwagę na fakt, iż nie rozwiązują one problemu przechowywania i przetwarzania gigantycznych ilości danych. O tym, jak wiele ich jest niech świadczy fakt, że komputerowy system sekwencjonowania genów może w ciągu minuty wygenerować terabajt informacji. Jedną z poważnych przeszkód w korzystaniu z chmur obliczeniowych są trudności z ich optymalnym oprogramowaniem. Ed Lazowska z University of Washington, który współpracuje z Microsoftem przy tworzeniu prostych narzędzi dla naukowców korzystających z chmur mówi, że jeszcze niedawno przy każdym typowym projekcie naukowym wystarczyło zatrudnić magistranta, który przez około 4 godziny w tygodniu zajmował się zarządzaniem danymi. Teraz konieczne jest wygospodarowanie pieniędzy na pełen etat dla osoby, która musi codziennie je nadzorować.
  11. Jak donosi Taipei Times, centrum działające w ramach tajwańskiego Industrial Technology Research Institute, ma zamiar do końca przyszłego roku opracować system komputerowy w kontenerach. Najpierw zostanie powołane konsorcjum, które w ciągu najbliższych miesięcy opracuje koncepcję typowego morskiego kontenera o długości 12 metrów, który pomieści do 1000 serwerów. Takie kontenery mogą być modułami tworzącymi centrum bazodanowe. Koszt pojedynczego kontenera z serwerami mógłby wynieść około 5 milionów dolarów. Tego typu rozwiązanie może świetnie sprawdzić się w czasach, gdy na popularności zyskują usługi typu cloud computing. Klient otrzymywałby gotowy, wstępnie skonfigurowany moduł i w miarę potrzeb mógłby podłączać kolejne kontenery.
  12. Google ujawniło szczegóły dotyczące systemu Chrome OS, który trafi do rąk klientów najwcześniej pod koniec przyszłego roku. System w tej chwili zajmuje 60-krotnie mniej miejsca niż Windows i inne systemy operacyjne. Google chce jednak jeszcze bardziej go odchudzić. Wszystkie aplikacje i dane osób korzystających z Chrome OS będą przechowywane w chmurze obliczeniowej. Sam system będzie startował tylko z dysków SSD lub pamięci Flash, nie obsłuży on tradycyjnych HDD. Decyzję taką podjęto, gdyż Google chce, by Chrome OS uruchamiał się w zaledwie 7 sekund. W roli interfejsu Chrome OS zostanie wykorzystana przeglądarka Chrome, a aplikacje będą grupowane w zakładkach. Systemu nie będzie można kupić czy pobrać z Sieci. Zostanie on preinstalowany w urządzeniach, które będą zgodne ze specyfikacją Google'a. Chrome OS ma obsługiwać procesory x86 oraz ARM. Początkowo będzie on przeznaczony na rynek netbooków, jednak z czasem ma również trafić do notebooków czy pecetów. Użytkownik systemu Google'a będzie mógł korzystać w trybie offline z danych i aplikacji zgodnych ze standardem HTML5. Koncern poinformował też, że jądro systemu będzie działało tylko w trybie do odczytu, co powinno zwiększyć jego bezpieczeństwo, gdyż żadne aplikacje nie będą mogły dokonywać w nim zmian.
  13. W Internet Observatory Report firmy Arbor Networks znalazło się stwierdzenie, że internet wszedł w drugą fazę rozwoju. Można również zauważyć, iż następuje koncentracja Sieci w rękach wielkich graczy. Do niedawna w sieci istniało 10 providerów Tier-1, obecnie jest ich 12, jednak zmienili swój model biznesowy. Teraz nie skupiają się oni na obsłudze całego ruchu, ale przede wszystkim na przesyłaniu danych pomiędzy wielkimi przedsiębiorstwami, chmurami obliczeniowymi i twórcami treści. Jeszcze 5 lat temu ruch w internecie rozkładał się proporcjonalnie pomiędzy dziesiątki tysięcy firmowych witryn oraz serwerów. Dzisiaj większość ruchu odbywa się pomiędzy niewielką liczbą wielkich firm hostingowych, dostawców chmur obliczeniowych i dostawców treści. Eksperci Arbor Networks oceniają, że obecnie 30 wielkich firm, takich jak Limelight, Facebook, Google, Microsoft czy YouTube obsługuje aż 30% ruchu w internecie. Craig Labovitz z Arbor Networks mówi: Dziesięć czy piętnaście lat temu chodziło po prostu o ruch pomiędzy witrynami, a największym odkryciem naszego raportu jest stwierdzenie, że nastąpiła konsolidacja witryn. W ciągu ostatnich 2 lat duże organizacje kupowały mniejsze witryny i w lipcu 2009 roku do kilku wielkich firm należało już 30% internetu. Dzieje się tak z dwóch powodów, zarówno duże jak i małe domeny przechodzą do chmur. To z kolei powoduje, że mamy do czynienia z więĸszą ilością treści, która jest coraz lepszej jakości i jest szybciej dostępna. Internet Observatory Report to prawdopodobniej najdokładniejsze studium internetu przeprowadzone od połowy lat 90. Jest ono wynikiem dwuletniej pracy, podczas której przeanalizowano dane dotyczące ruchu w sieci, udostępnione przez 110 wielkich operatorów na całym świecie. Podczas studiów monitorowano 256 eksabajtów danych, które zostały przesłane w ciągu ostatnich dwóch lat. Obecnie w czasie szczytowego obciążenia sieci na całym świecie przesyłanych jest 12 terabitów w ciągu sekundy. Szczegóły raportu zostaną zaprezentowane 19 października.
  14. W informatyce nie istnieją zabezpieczenia doskonałe i każde z nich można w końcu pokonać. Jednak czy zostaną one pokonane zależy w dużej mierze od korzyści, jakich spodziewa się atakujący. Dlatego też korzystając z najbardziej rozpowszechnionej metody zabezpieczania danych - haseł - powinniśmy pamiętać, że im dłuższe hasło, tym jego złamanie jest trudniejsze i bardziej kosztowne. Eksperci z firmy Electric Alchemy pokusili się o oszacowanie nie tylko kosztów złamania hasła metodą brute force, ale również oceny, w jaki sposób wykorzystanie najnowszych technologii wpływa na ich obniżenie. W ramach eksperymentów przeprowadzono ataki na plik .zip chroniony za pomocą oprogramowania PGP. Wykorzystano przy tym program EDPR do łamania haseł produkowany przez rosyjską firmę ElcomSoft. Pierwsze próby wykazały, że jeśli użyjemy dwurdzeniowego peceta z systemem Windows 7 to złamanie średniej długości hasła zajmie nam około 2100 dni. To, oczywiście, nieakceptowalnie długo. Dlatego też specjaliści wpadli na pomysł wykorzystania chmur obliczeniowych. Wynajęli w tym celu moc obliczeniową chmury EC2 Amazona. Jest ona udostępniana w cenie 30 centów za godzinę pracy każdego procesu obliczeniowego. Po odpowiednim skonfigurowaniu okazało się, że 10 wirtualnych komputerów korzystających równocześnie z EDPR jest w stanie złamać hasło w ciągu 122 dni. Koszt takiego przedsięwzięcia wynosi mniej niż 8784 USD. Jeśli jednak wynajmiemy 100 wirtualnych maszyn, to złamią one hasło w ciągu 12 dni, a my zapłacimy za to 8640 USD. Wyraźnie więc widać, że nowoczesna technologia pozwala na szybkie i tanie łamanie haseł. Dlatego też, co udowodniły kolejne obliczenia Electric Alchemy, hasła powinny być jak najdłuższe i powinny korzystać z jak największego zestawu znaków. Wystarczy wspomnieć, że złamanie hasła składającego się z 9 znaków, wśród których mogą znaleźć się wszystkie symbole ASCII kosztuje co najmniej 10 milionów dolarów. W przypadku 12-znakowego hasła koszt rośnie do 8 miliardów USD. Jednak będzie on znacznie niższy, gdy wykorzystamy tylko małe litery łacińskie i cyfry. Wówczas ośmioznakowe hasło złamiemy za 45 USD, 9-znakowe będzie kosztowało 1628 dolarów, a 10-znakowe - 58 592 USD. Dalej koszt gwałtownie rośnie i przy 11-znakowym wynosi już ponad 2 miliony USD, a przy 12-znakowym zbliża się do 76 milionów dolarów.
  15. Canonical udostępni dzisiaj jubileuszową 10. już wersję systemu Ubuntu. Edycja oznaczona numerem 9.04 jest znana pod kodową nazwą "Jaunty Jackalope". Ubuntu Linux liczy sobie 5 lat. System zadebiutował w 2004 roku i od tamtej pory stał się jedną z najpopularniejszych dystrybucji opensource'owego systemu operacyjnego. Jednym z najważniejszych usprawnień jest skrócenie czasu startu systemu. Na komputerze Dell Inspiron mini9 uruchamia się on w ciągu 25 sekund. Jego poprzednia wersja potrzebuje 45 sekund. Poprawiono mechanizmy usypiania i ponownego uruchamiania systemu na notebookach, ulepszono obsługę 3G i Wi-Fi. Serwerowa wersja nowego Ubuntu została przygotowana tak, by nadawała się do zastosowania w chmurach obliczeniowych. System przeszedł testy na sprzęcie największych producentów sprzętu serwerowego - HP, Suna, IBM-a, Della czy Lenovo. Wciąż jeszcze, jak przyznaje Mark Shuttleworth, prezes Canonical, piętą achillesową systemu pozostaje brak certyfikatów od wielu producentów sprzętu. Osoby, chcące sprawdzić jak sprawuje się Ubuntu 9.04 w chmurach obliczeniowych powinni skorzystać z serwisu Amazon EC2. Istnieje tam możliwość stworzenia swojej własnej chmury na serwerach Amazona. Kolejnej edycji Ubuntu, o nazwie "Karmic Koala", możemy spodziewać się już w październiku.
  16. Wygląda na to, że Microsoft jest kolejną po Intelu firmą, która uznała, że w czasach kryzysu należy... inwestować w prace badawczo-rozwojowe. Koncern zapowiedział już wcześniej zwolnienie 5000 osób w ciągu najbliższych 18 miesięcy, ale, jak się okazuje, liczba jego pracowników nie spadnie aż tak bardzo. Dyrektor ds. operacyjnych, Kevin Turner, poinformował właśnie, że w bieżącym roku Microsoft ma zamiar wydać o miliard dolarów więcej na badania i rozwój niż w roku 2008. W związku z tym zatrudni do 3000 dodatkowych osób. Budżet działu R&D koncernu wyniesie więc rekordowe 9 miliardów dolarów. Firma skupi się przede wszystkim na rozwoju aplikacji internetowych do pracy w chmurach obliczeniowych (tzw. cloud computing).
  17. W raporcie firmy Net Applications, w którym poinformowano o tym, że udziały Windows spadły poniżej 90%, znaleziono jeszcze jedną niezwykle interesującą informację. Okazuje się, Net Applications nie nie jest w stanie sprawdzić, jakiego systemu operacyjnego używa część pracowników Google'a. Używane przez firmę narzędzia potrafią rozpoznać większość dystrybucji Linuksa i Uniksa, różne odmiany systemów Apple'a i Microsoftu. Są nawet w stanie prawidłowo zidentyfikować system Windows 7, używany przez testerów w siedzibie Microsoftu. Tymczasem aż 30% pracowników Google'a odwiedzających witryny nadzorowane przez Net Applications, używa OS-u, o którym niczego nie można się dowiedzieć. Co ciekawe, można uzyskać z tych komputerów informacje na temat używanej przeglądarki internetowej, a więc blokada nie obejmuje komputera jako takiego. Zablokowano tylko i wyłącznie możliwość sprawdzenia systemu operacyjnego. Niektórzy specjaliści uważają to za dowód, iż Google ma własny system operacyjny, istnienie którego chce na razie utrzymać w tajemnicy. Rob Enderle, główny analityk firmy The Enderle Group, uważa, że tajemniczy OS może być rozszerzoną wersją Androida, specyficznie przystosowaną do obsługi chmur obliczeniowych. Takie działanie byłoby w przypadku Google'a bardzo sensowne, gdyż od dawna rozwija on coraz więcej usług i programów udostępnianych w Sieci. Analitycy zgadzają się, że Google nie chce konkurować z Microsoftem na rynku systemów operacyjnych. Celem koncernu Page'a i Brina jest zmiana sposobu używania komputerów i uczynienie tradycyjnych OS-ów niepotrzebnymi. Nie sądzę, by Google chciało wejść na rynek desktopowych systemów operacyjnych. To po prostu nie ma sensu. Ale sensowne jest [w przypadku Google'a - red.] posiadanie własnej infrastruktury dla aplikacji klienckich działających niezależnie od sprzętu - stwierdził Clay Ryder, prezes The Sageza Group. Zdaniem Enderlego Google przygotowuje całościową ofertę, na którą składają się Google Apps, Toolbar, przeglądarka Chrome, a jej logicznym uzupełnieniem jest system operacyjny. Sądzę, że to interesująca strategia, która może wypalić, ale jest jeszcze za wcześnie, by zaprezentować ją rynkowi, gdyż Chrome nie jest jeszcze gotowa - dodaje Enderle.
×
×
  • Create New...