Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'serwer' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 46 wyników

  1. Specjaliści ostrzegają, że 8 marca część użytkowników internetu mogą czekać poważne kłopoty. Właśnie na ten dzień FBI zapowiedziało wyłączenie swoich serwerów, które zastąpiły serwery przestępców, kierujących użytkowników na złośliwe witryny. W listopadzie FBI zlikwidowało botnet DNSChanger. Jego twórcy infekowali komputery i manipulowali adresami internetowymi tak, że użytkownicy trafiali na witryny, których jedynym celem było wyświetlanie reklam. FBI zastąpiło serwery przestępców własnymi maszynami, dzięki czemu komputery zainfekowane przez botnet mogły bez przeszkód łączyć się z internetem. Ponadto FBI było w stanie zidentyfikować zarażone maszyny. Jednak Biuro z góry założyło, że zastępcze serwery będą działały tylko przez jakiś czas, by użytkownicy komputerów zarażonych DNSChangerem mieli czas na wyczyszczenie komputerów ze szkodliwego kodu. „Zastępcza sieć“ FBI ma zostać wyłączona właśnie 8 marca. Oznacza to, że komputery, które nadal są zarażone, stracą dostęp do internetu, gdyż będą usiłowały łączyć się z nieistniejącymi serwerami DNS. Eksperci ostrzegają, że wiele komputerów wciąż nie zostało wyczyszczonych ze szkodliwego kodu. Z danych firmy ID wynika, że co najmniej 250 z 500 największych światowych firm oraz 27 z 55 największych amerykańskich instytucji rządowych używa co najmniej jednego komputera lub routera zarażonego DNSChangerem. Nieznana jest liczba indywidualnych użytkowników, którzy mogą mieć kłopoty. Zespół odpowiedzialny w FBI za zwalczanie DNSChangera rozważa przedłużenie pracy serwerów. Jednak nawet jeśli nie zostaną one wyłączone 8 marca, to niewiele się zmieni. Internauci, zarówno prywatni jak i instytucjonalni, nie dbają o to, co dzieje się z ich komputerami. Można tak wnioskować chociażby z faktu, że największa liczba skutecznych ataków jest przeprowadzonych na dziury, do których łaty istnieją od dawna, jednak właściciele komputerów ich nie zainstalowali. Przykładem takiej walki z wiatrakami może być historia robaka Conficker, który wciąż zaraża miliony maszyn, mimo, że FBI od 2009 roku prowadzi aktywne działania mające na celu oczyścić zeń internet. Ponadto, jeśli FBI nie wyłączy swoich serwerów, to DNSChanger nadal będzie groźny. Robak uniemożliwia bowiem pobranie poprawek, co oznacza, że niektóre z zarażonych nim maszyn nie były aktualizowane od wielu miesięcy, a to wystawia je na jeszcze większe niebezpieczeństwo. Firmy, które chcą sprawdzić, czy ich komputery zostały zarażone DNSChangerem powinny skontaktować się z witryną DNS Changer Working Group. Użytkownicy indywidualni mogą skorzystać z narzędzia do sprawdzenia komputera.
  2. Intel prawdopodobnie pracuje nad ośmiordzeniowym procesorem Atom dla serwerów. Energooszczędne układy cieszą się coraz większym zainteresowaniem ze strony producentów takich maszyn. HP właśnie ogłosił, że będzie oferował swoim klientom serwery z procesorami ARM. Intel nie chce pozostać w tyle i, jak twierdzi serwis SemiAccurate, w 2013 roku zaprezentuje ośmiordzeniowego Atoma. Procesor ma bazować na 22-nanometrowym rdzeniu Silvermont wykorzystującym trójbramkowe tranzystory. Prawdopodobnie będzie taktowany częstotliwością wyższą o 20-25 procent od taktowania obecnie dostępnych Atomów. Sam Intel nie wspominał o ośmiordzeniowym Atomie. Firma zapowiada jedynie, że w 2013 roku zadebiutuje Atom Silvermont dla notebooków.
  3. W dokumencie The Data Furnaces: Heating Up with Cloud Computing specjaliści z Microsoft Research proponują ogrzewanie domów ciepłem odpadowym z chmur obliczeniowych. Podobne pomysły nie są niczym nowym, jednak inżynierowie Microsoftu wpadli na nowatorski pomysł tworzenia infrastruktury chmur. Proponują oni mianowicie, by serwerów nie instalować w wielkim centrum bazodanowym, ale... w domach, które mają być przez nie ogrzewane. W ten sposób rachunki w gospodarstwie domowym za ogrzewanie spadłyby niemal do zera. Olbrzymie kwoty, rzędu 280-324 dolarów rocznie od serwera, zaoszczędziliby również właściciele chmur obliczeniowych. Autorzy dokumentu przewidują, że serwery byłyby umieszczane w piwnicach domów jednorodzinnych. Właściciele domów byliby zobowiązani do ewentualnego restartowania maszyn w razie potrzeby. Jak twierdzą badacze z Microsoft Research właściciele chmur już od początku zanotowaliby poważne oszczędności. Nie musieliby bowiem ponosić kosztów związanych z budową lub wynajęciem i utrzymaniem pomieszczeń, budową sieci energetycznej i teleinformatycznej, systemu chłodzenia, obniżyliby koszty operacyjne. Z drugiej strony zauważają, że energia elektryczna jest sprzedawana odbiorcom indywidualnym drożej niż odbiorcom biznesowym, zwiększyłyby się koszty konserwacji, gdyż maszyny byłyby rozrzucone do po dużej okolicy, ponadto nie we wszystkich domach dostępne są łącza o wymaganej przepustowości. Oczywiście do domów jednorodzinnych trafiałyby niewielkie serwery. Większe maszyny można by ustawiać w biurowcach, gdzie również zapewnią ogrzewanie budynku. Analiza pokazała, że największe korzyści odnieśliby mieszkańcy tych stanów, w których ogrzewanie domów pochłania najwięcej pieniędzy. Pracownicy Microsoftu twierdzą ponadto, że ich propozycja spowoduje, iż możliwe będzie zwiększenie wydajności chmur obliczeniowych bez jednoczesnego zwiększania zużycia energii w skali kraju. Już przed 5 laty centra bazodanowe zużywały 3% energii produkowanej w USA. Dzięki instalowaniu ich w domach jednorodzinnych będzie można zwiększyć liczbę serwerów, a tym samym zwiększyć ilość zużywanej przez nie energii, co jednak nie spowoduje globalnego wzrostu jej zużycia, gdyż jednocześnie spadnie ilość energii zużywanej przez gospodarstwa domowe do ogrzewania. W analizie Microsoftu zabrakło jednak odniesienia się do kwestii bezpieczeństwa czy sytuacji awaryjnych, takich jak np. przerwy w dostawie prądu.
  4. Tudor Brown, prezes firmy ARM postanowił nieco ochłodzić nastroje wśród osób oczekujących na rychłe premiery serwerów z kośćmi ARM. Mocno wierzymy w to, że ta chwila nadejdzie. Ten proces już się rozpoczyna, ale minie kilka lat [zanim serwery ARM będą sprzedawane w znaczącej ilości - red.] - mówił Brown. Wiele firm, wśród nich Nvidia, Marvell czy Calxeda, pracuje nad serwerami z kośćmi ARM. Tego typu maszyny mogą przydać się wszędzie tam, gdzie nie jest wymagana największa możliwa moc obliczeniowa. Ich olbrzymią zaletą jest niskie zapotrzebowanie na energię, co w wielu przypadkach przyniesie oznacza duże oszczędności. ARM rozpoczęło własne badania nad serwerami już w roku 2008 w nadziei, że pewnego dnia będą one stanowiły ważny rynek dla tego typu procesorów. Jednak, by do tego doszło, firma musi zadbać o całe związane z tym otoczenie. Musi upewnić się, że istnieje oprogramowanie serwerowe dla architektury ARM i namówić producentów sprzętu, by tworzyli odpowiednie urządzenia. Brytyjska firma intensywnie pracuje nad kolejnymi układami. Zapowiada, że kość Cortex A-15 będzie obsługiwała wirtualizację oraz 64-bitowe oprogramowanie. To jednak dopiero początek implementowania podstawowych technologii, które powinny obsługiwać procesory serwerowe. Dlatego też zdaniem Browna na pojawienie się na rynku większej liczby serwerów ARM trzeba będzie poczekać do roku 2014 lub 2015.
  5. Niematerialne cyfrowe artefakty, np. zdjęcia, e-maile czy pliki muzyczne, mogą być dla współczesnych nastolatków równie cenne, co ulubiona książka z dzieciństwa lub T-shirt z festiwalu muzycznego. Fakt, że wirtualne dobra nie mają formy fizycznej, tak naprawdę zwiększa ich wartość - ustalili naukowcy z Carnegie Mellon University (CMU). Amerykańskie studium objęło 21 nastolatków. Jego autorzy uważają, że pełniejsza ocena wartości przypisywanej wirtualnym obiektom może wspomóc wysiłki projektantów e-usług i e-towarów. Cyfrowe zdjęcie jest cenne, ponieważ jest zdjęciem, ale także dlatego, że można się nim dzielić [udostępniać], a inni mogą zostawiać swoje komentarze – podkreśla prof. John Zimmerman. Dla osób, które wzięły udział w badaniu CMU, fotografia z tagami od przyjaciół i znajomych, zlinkowana i skomentowana miała większe znaczenie od zdjęcia z albumu. Jedna z badanych 16-latek powiedziała, że za każdym razem, gdy bierze udział w jakimś wydarzeniu, np. koncercie, robi masę zdjęć, a następnie od razu umieszcza wszystkie w Internecie, tak by znajomi mogli je zlinkować, skomentować itp. Odbieram to jako prawdziwszą relację z wydarzenia. Komentujemy i omawiamy wszystko... co daje w konsekwencji uwspólniony sens tego, co się wydarzyło. Skłonność człowieka do zbierania i nadawania przedmiotom znaczenia jest znana i opisywana od wieków. Współcześnie jednak wiele cenionych obiektów – książki, zdjęcia, płyty CD – jest zastępowanych wersjami elektronicznymi, np. e-bookami. Ponadto za pomocą komputera można stworzyć coś, co nie miało wcześniej żadnej materialnej postaci, m.in. profile na portalach społecznościowych czy awatary do gier sieciowych. Zimmerman, prof. Jodi Forlizzi i doktorant William Odom zwerbowali do eksperymentu 9 dziewcząt i 12 chłopców w wieku od 12 do 17 lat. Ich rodziny reprezentowały tzw. klasę średnią lub wyższą średnią, dlatego dzieci miały łatwy i częsty dostęp do nowoczesnych technologii, w tym telefonów komórkowych i Internetu. Psycholodzy pytali o rzeczy związane z codziennym życiem, wykorzystanie technologii oraz o cenione dobra materialne i wirtualne. Niemożność powiązania wirtualnych dóbr z konkretnym miejscem zwiększa wartość, dlatego coś przechowywanego online jest cenniejsze od tej samej rzeczy znajdującej się na dysku komputera. Chodzi o to, że obiekty z Sieci są zawsze dostępne. Pewna 17-latka powiedziała, że skopiowała na serwer internetowy wszystkie swoje zdjęcia, by stale mieć do nich dostęp, bez względu na to, czy znajduje się w łóżku, czy w markecie. Lubię wiedzieć, że będą tam, gdy zechcę do nich zajrzeć. Na wartość online'owych obiektów wpływa stopień, do jakiego użytkownicy mogą je zmieniać i personalizować. Jeden z ankietowanych 17-latków spędził np. dużo czasu, dopracowując awatar do gry "Halo". Jego znajomi często go komentowali. Zimmerman, Forlizzi i Odom zauważyli też, że gromadzące się metadane (np. historia aktywności, komentarze czy wskaźniki czasu spędzonego online) znacznie podwyższają wartość wirtualnych dóbr. Badani twierdzili, że w Sieci mogą ujawniać rzeczy, np. zdjęcie nielubianego przez rodziców chłopaka, które nigdy nie pojawiłyby w ich sypialni. Wirtualny świat pozwala nastolatkom prezentować odpowiednim grupom odpowiedni wizerunek. Wskazuje to na potrzebę tworzenia zaawansowanych narzędzi do kontroli prywatności. Naukowcy podkreślają, że stałe rozszerzanie repertuaru i kolekcji wirtualnych dóbr stwarza realne dylematy, np. czy jeśli użytkownicy wspólnie tworzą artefakty (dodają tagi lub znaczniki do zdjęć), trzeba zgody wszystkich, by je usunąć? Nasze przyszłe badania będą służyły sprawdzeniu, co się dzieje, kiedy granice między dobrami wirtualnymi i fizycznymi są bardziej rozmyte. Przyjrzymy się tagom i społecznościowym metadanym oraz ich roli w dzieleniu się doświadczeniami z rodziną i rówieśnikami – podsumowuje Forlizzi.
  6. Chiński uczony Yong Wang z Uniwersytetu Elektroniki i Technologii w Chengdu we współpracy z naukowcami z amerykańskiego University of Evanston opracował technologię, pozwalającą na określenie fizycznego położenia komputera łączącego się z internetem z dokładnością do 690 metrów. Znacznie zatem zawęzili krąg poszukiwań, gdyż dotychczas można było określić położenie z dokładnością do 35 kilometrów. Uczeni wykorzystali położenie uczelni wyższych oraz przedsiębiorstw do uzyskania tak wysokiej dokładności. Skorzystali przy tym z faktu, że instytucje te często hostują swoje witryny na własnych serwerach znajdujących się w siedzibie firmy czy uczelni. Zatem w ich przypadku adres IP jest ściśle powiązany z lokalizacją. Poszukiwanie interesującego nas komputera odbywa się w trzech etapach. Najpierw badany jest czas, w jakim pakiety wysyłane z naszego komputera dotrą do maszyny docelowej. To umożliwia zawężenie kręgu poszukiwań do około 200 kilometrów. Następnie pakiety wysyłane są do serwera, którego fizyczna lokalizacja jest znana z Google Maps. Dzięki temu można sprawdzić, przez jakie węzły sieci przechodzi sygnał. Mierząc czas przejścia pakietu pomiędzy węzłami, można zbadać dzielące je odległości i jeszcze ściślej określić położenie komputera docelowego. Trzeci etap polega na szczegółowym badaniu opóźnień pomiędzy poszczególnymi ruterami oraz pomiędzy nimi a serwerem referencyjnym. Metoda nie jest idealna, a wartość 690 metrów to uśrednienie dla różnych pomiarów. Jednak w sprzyjających warunkach pozwala na określenie miejsca położenia poszukiwanego komputera nawet z dokładnością do 100 metrów. Yong Wang mówi, że do przeprowadzenia poszukiwań nie jest potrzebne żadne współdziałanie ze strony właściciela szukanego komputera, zatem może on nic o nich nie wiedzieć. Przed tego typu działaniami obroni nas jednak korzystanie z serwera proxy. Wang przyznaje, że nie jest w stanie sobie poradzić z tego typu zabezpieczeniem. Może jednak wykrywać proxy, zatem w najgorszym wypadku nie uzyska żadnej odpowiedzi, a nie da się nabrać na fałszywą. Metoda Wanga raczej nie przyda się policji czy służbom specjalnym, ale może być przydatna dla firm reklamowych, które będą mogły wyświetlać reklamy mieszkańcom konkretnych ulic.
  7. Jak poinformował Gartner, w trzecim kwartale bieżącego roku sprzedaż serwerów wzrosła o 15%. Zdaniem analityków to znak, że wielkie firmy znowu inwestują w duże projekty technologiczne. Jak poinformował Jeffrey Hewitt, większość wzrostu sprzedaży napędzana jest przez budowę nowych centrów bazodanowych i rozbudowę już istniejących. Największą popularnością cieszą się serwery x86, a ich producenci informują o rosnących wpływach. HP, największy producent serwerów, zanotował wzrost przychodów o 22,5%. Drugi pod względem wielkości producent, czyli IBM, informuje o 9,9-procentowym wzroście. Jeszcze lepiej wiedzie się Dellowi, którego przychody wzrosły aż o 25,6 procenta. Dostawy samych tylko serwerów x86 zwiększyły się o 14,9%, a przychody z tego tytułu wzrosły o 29,5%. Rosnąca sprzedaż serwerów to dobra informacja dla całego przemysłu technologicznego. Za tym bowiem pójdą zwiększone zamówienia na systemy przechowywania danych czy oprogramowanie.
  8. Developerzy opensource'owego serwera IRC o nazwie UnrealIRCd poinformowali, że przez wiele miesięcy nie zauważyli, iż jeden z ich serwerów został zaatakowany przez cyberprzestępców. Atakujący zastąpili plik Unreal3.2.8.1.tar.gz własną wersją, w której wprowadzili tylne drzwi. Dzięki temu cyberprzestępcy mieli nieskrępowany dostęp do każdego serwera z uruchomionym UnrealIRCd. Najprawdopodobniej podmieniony plik został wgrany na serwer w listopadzie 2009 roku, ale zauważono to dopiero ostatnio.
  9. Najnowsze dane firmy analitycznej IDC wskazują, że w pierwszym kwartale 2010 roku Windows zwiększył swoją przewagę na światowym rynku serwerów. System z Redmond jest na nim niemal tak samo silny jak na rynku pecetów. W ciągu trzech pierwszych miesięcy aż 75,3% (1.379.487) serwerów dostarczono klientom z systemem Windows. Nabywców znalazło też 380.429 (20,8%) maszyn z Linuksem oraz 65.451 (3,6%) serwerów z Uniksem. W porównaniu z poprzednim kwartałem serwery z Windows zyskały 1,4 punktu procentowego, Linux stracił 0,4 pp, a Unix - 0,8 pp. System Microsoftu miał też największe udziały pod względem przychodów. Klienci wydali nań 5,1 miliarda dolarów (48,9%). Na serwery linuksowe przeznaczyli 1,7 miliarda (16,2%), a uniksowe - 2,3 miliarda (22,2%). Miniony kwartał był pod względem rynkowych udziałów rekordowy dla Windows. Do sukcesu z pewnością przyczyniło się zwiększone zainteresowanie maszynami x86. Sukcesy notują też dostawcy systemów Linux. Ich rynkowe udziały liczone przychodami wzrosły o 2,1 punktu procentowego w porównaniu z pierwszym kwartałem roku 2009. Windows i Linux zwiększają swoje udziały kosztem serwerów uniksowych. Są to zwykle bardzo drogie systemy, oparte na innych architekturach niż x86. Tymczasem klienci coraz chętniej szukają rozwiązań x86. Mimo iż na rynku serwerów Linux ma znacznie lepszą pozycję niż na rynku pecetów, to dominującym graczem wciąż pozostaje tutaj Windows. Zmiany na rynku OS-ów znajdują też swoje odbicie w procesach zachodzących na rynku sprzętu. Największym producentem serwerów jest obecnie HP, który dostarcza na rynek 32,5% maszyn. W pierwszym kwartale 2009 roku do HP należało 29,3% rynku serwerów. Firma zanotowała też wzrost przychodów rzędu 16,3%. Na drugim miejscu, z 27,5-procentowym udziałem w rynku, uplasował się IBM. Jeszcze przed rokiem do Błękitnego Giganta należało 29,2% rynku serwerów. Firma zanotowała też spadek przychodów o 1,2%. Trzecie miejsce należy do Della (16,3% rynku czyli o 5,1 pp więcej niż przed rokiem i wzrost przychodów o 51,9%). Na czwartym uplasował się Sun (6,6% rynku, co oznacza spadek o 3,5 pp, spadek przychodów o 31,9%). Piąta pozycja należy do Fujitsu (6,5% rynku, czyli o 0,2 pp mniej niż rok temu, wzrost przychodów o 2,2%).
  10. Niedawno informowaliśmy, że Marvell szykuje wielordzeniowe procesory ARM dla serwerów. Producenci serwerów już w tej chwili ostrożnie wyrażają swoje zainteresowanie tego typu ofertą. Przedstawiciele IBM-a oświadczyli, że firma popiera trend zmierzający w kierunku energooszczędnej architektury, jednak nie chcieli zdradzić, czy mają zamiar korzystać z ARM-a. Więcej informacji udzielił Paul Prince, menedżer odpowiedzialny za kwestie technologiczne w wydziale produktów dla przedsiębiorstw. Zapowiedział, że w ciągu najbliższych miesięcy firma przetestuje w serwerach wielordzeniowe układy Cortex A9. Przypomniał, że już półtora roku temu testowano zestaw LAMP (Linux, Apache, MySQL i Python) na układzie ARM A8, a przed dwoma laty Dell zbudował co najmniej jedno centrum bazodanowe składające się z co najmniej 5000 serwerów korzystających z układów x86 firmy Via. Przedstawiciel Della zauważył, że istnieje kilku producentów energooszczędnych procesorów, ale przyznał, że jeśli koncern zdecyduje się na używanie tego typu kości, to pod uwagę weźmie przede wszystkim ofertę Marvella.
  11. Marvell Technology Group ma zamiar jeszcze w bieżącym roku rozpocząć sprzedaż 40-nanometrowych procesorów ARM dla serwerów. Marvell współpracuje z wieloma partnerami i ma nadzieję, że uda się zaimplementować system Windows na architekturze ARM. Simon Milner, wiceprezes Marvella, informuje, że jego firma pracuje nad czterordzeniową kością dla serwerów. Zauważa przy tym, że na zdominowanym przez x86 rynku serwerów architektura ARM może przynieść olbrzymie korzyści pod względem oszczędności energii. Jego zdaniem procesory ARM są średnio pięciokrotnie bardziej oszczędne. W bieżącym roku Marvell pokazał układ Armada 310, który potrzebuje zaledwie 700 mW by pracować z częstotliwością 1 GHz, a przy zwiększeniu taktowania do 2 GHz wciąż zużywa mniej niż wat energii. Jak zapewnia Marvell, wydajność architektury ARM jest porównywalna z x86, a układy mogą być sprzedawane po wielokrotnie niższych cenach, co jest kolejnym argumentem za wykorzystaniem serwerowych procesorów ARM.
  12. W ofercie Intela znalazły się procesory z rodziny Intel Xeon 7500, które już zdążyły pobić wiele rekordów w testach wydajności. Chipy korzystają z architektury Nehalem i mogą pracować w konfiguracjach od dwóch do 256 procesorów na serwer. Układy przetestowano w systemach produkowanych przez SGI, IBM-a, Cisco, Della, NEC, Fujitsu za pomocą narzędzi takich jak VMark, TPC Benchmark E, SAP SD two-tier, SPECjEnterprise 2010, SPECfp_rate_base2006, SPECjbb 2005, SPECint_rate_base2006, SAP BI-Datamart czy SPECjAppServer 2004, które wykazały średnio trzykrotny wzrost wydajności w porównaniu z rodziną Xeon 7400. Kości Xeon 7500 są w stanie obsłużyć terabajt pamięci RAM w konfiguracji czteroprocesorowej. Zastosowano w nich m.in. Intel Virtualization Technology FlexMigration pozwalającą na migrację maszyn wirtualnych pomiędzy wszystkimi platformami z architekturą Core. Seria Intel Xeon 7500 oferuje do ośmiu zintegrowanych rdzeni i szesnastu wątków i skaluje się do 32 rdzeni oraz 64 wątków w platformach czteroukładowych albo do 62 rdzeni i 128 wątków w platformach ośmioukładowych. Osiąga częstotliwość taktowania 2,66 GHz i jest dostępna z 24 MB pamięci Intel® Smart Cache, czterema łączami Intel QPI oraz technologią Intel Turbo Boost. Współczynniki Thermal Design Point (TDP) wynoszą od 95 do 130 watów. Procesor Intel Xeon X7560 z ośmioma rdzeniami i 24 MB pamięci podręcznej zbudowano z myślą o najbardziej wymagających, krytycznych, równoległych obciążeniach roboczych, natomiast Intel Xeon X7542 to sześciordzeniowa wersja zoptymalizowana częstotliwościowo (z taktowaniem 2,66 GHz) przeznaczona do superwęzłów HPC w zastosowaniach naukowych i finansowych. Hurtowe (po 1000 sztuk) ceny nowych procesorów kształtują się od 856 do 3692 dolarów za układ.
  13. Canonical, twórca Ubuntu, poważnie myśli o wejściu na serwerowy rynek przedsiębiorstw. Firma przeprowadziła właśnie studium na temat sposobu użytkowania i postrzegania platform serwerowych. Ubuntu Server miała dać firmie odpowiedź na temat różnic pomiędzy wersjami LTS i zwykłą. Przypomnijmy, że Canonical co pół roku publikuje nową edycję Ubuntu. Co dwa lata ukazują się edycje LTS (Long-Time Support), w ramach których firma udziela trzyletniego wsparcia klientom. W kwietniu bieżącego roku na rynek trafi Ubuntu LTS 10.04 o nazwie kodowej Lucid Lynx. Poprzednia edycja LTS to Hardy Hedron z kwietnia 2008. Spośród 2650 osób, które wzięły udział w badaniu Ubuntu Server, aż 72% odpowiedziało, że rozważając wykorzystanie Ubuntu w roli serwera, biorą pod uwagę takie czynniki jak możliwość tworzenia kopii zapasowych, obecność firewalla, poziom zabezpieczeń, wsparcie dla różnych systemów przechowywania danych oraz łatwość zarządzania. Innymi słowy, najważniejsze jest to, czy system nadaje się do krytycznych usług serwerowych. Dla wielu użytkowników istotnym czynnikiem jest też możliwość uzyskania pomocy technicznej ze strony producenta. Zwraca na nią uwagę 66% badanych. Bardzo ważna jest również obsługa sprzętu. Najwyraźniej jednak nie ma z nią większych problemów, gdy Ubuntu jest instalowane na serwerach największych producentów, IBM-a, HP czy Della. Żaden z nich nie oferuje jednak Ubuntu jako domyślnej instalacji. Canonical, chcąc przekonać użytkowników do swojego systemu, stara się o odpowiednie certyfikaty, dające gwarancję, że opensource'owy OS będzie współpracował ze sprzętem. Jak zapowiedziała nowa szefowa Canonical, Jane Silber, to właśnie polityka certyfikacji będzie jednym z najważniejszych działań, mających na celu wypromowanie Ubuntu.
  14. W serwisie eBay pojawiły się 12-rdzeniowe serwerowe procesory AMD Opteron 6174. Układy sprzedaje firma Oakville Mehlville Computers, która produkuje na zamówienie wysokowydajne serwery i stacje robocze. Opterony 6174 nie są jeszcze oficjalnie rozprowadzane, ale, jak twierdzi serwis X-bit laboratories, sprzedawane przez amerykańską firmę kości nie wyglądają na próbki inżynieryjne. Niewykluczone, że są one częścią pierwszej dostawy nowych Opteronów, które trafiły do klientów AMD. Opteron 6174 wyposażony jest w 12 megabajtów zunifikowanej pamięci cache trzeciego poziomu oraz 6 megabajtów (po 512 kB na rdzeń) pamięci L2. Korzysta on z rdzeni Magny-Cours, wbdudowanego kontrolera czterokanałowych pamięci DDR3 1333 MHz. Kości taktowane są zegarem 2,20 GHz. Cena wywoławcza kompletu czterech procesorów wynosi 6500 USD. Cenę "kup teraz" ustalono na poziomie 8000 dolarów. Jeśli zamiast samodzielnego zakupu poszczególnych komponentów wolimy kupić gotowy serwer, to w ofercie Oakville Mehlville Computers znajdziemy czteroprocesorową maszynę z Opteronami 6174 w cenie 20 000 dolarów.
  15. Via Technologies informuje o powstaniu niewielkiego serwera korzystającego z laptopowych procesorów Nano. Urządzenie Mserv S2100 ma wielkość biurkowego desktopa, a jego procesor taktowany jest zegarem od 1,3 do 1,6 GHz. Serwer powstał z myślą o zastosowaniu go w domach i małych firmach jako urządzenia do przechowywania kopii zapasowych czy hostowania aplikacji sieciowych. Wyposażono go w dwa porty Gigabit Ethernet oraz możliwość zainstalowania do 4 terabajtów pamięci masowej. Maszyna sprzętowo wspiera wirtualizację i korzysta ze sprzętowego szyfrowania danych w locie. Mserv S2100 to kolejny przykład zastosowania energooszczędnych procesorów notebookowych w serwerach. Maszyny takie są tanie i charakteryzują się niskimi kosztami obsługi. Są często bardzo dobrą alternatywą dla większych, bardziej wydajnych serwerów, gdyż w wielu przypadkach - np. przy przechowywaniu kopii zapasowych - wykorzystuje się jedynie część ich mocy i ponosi spore koszty związane ze zużyciem energii. Procesory Nano wykorzystał również Dell w serwerze XS11-VX8, a dział badawczo-rozwojowy Microsoftu stworzył eksperymentalny serwer wykorzystujący 50 procesorów Atom.
  16. Jak donosi Taipei Times, centrum działające w ramach tajwańskiego Industrial Technology Research Institute, ma zamiar do końca przyszłego roku opracować system komputerowy w kontenerach. Najpierw zostanie powołane konsorcjum, które w ciągu najbliższych miesięcy opracuje koncepcję typowego morskiego kontenera o długości 12 metrów, który pomieści do 1000 serwerów. Takie kontenery mogą być modułami tworzącymi centrum bazodanowe. Koszt pojedynczego kontenera z serwerami mógłby wynieść około 5 milionów dolarów. Tego typu rozwiązanie może świetnie sprawdzić się w czasach, gdy na popularności zyskują usługi typu cloud computing. Klient otrzymywałby gotowy, wstępnie skonfigurowany moduł i w miarę potrzeb mógłby podłączać kolejne kontenery.
  17. W grocie skalnej pod Soborem Zaśnięcia Matki Bożej w Helsinkach powstaje prawdopodobnie najbardziej ekologiczne centrum bazodanowe na świecie. W samej grocie panuje niska temperatura, która wspomoże chłodzenie setek serwerów. Odbierane z nich ciepło będzie natomiast przechwytywane i kierowane do miejskiego systemu ogrzewania.Należące do firmy Academica centrum ma rozpocząć pracę już w styczniu. Instalacje składające się z tysięcy komputerów, takie jak np. centra bazodanowe Google'a, zużywają już około 1% światowej energii. I zużycie to niezwykle szybko rośnie. To generuje wysokie koszty dla operatora komputerów oraz oznacza zwiększenie zanieczyszczenia środowiska odpadami z przemysłu produkującego energię. Jej olbrzymie zużycie wynika nie tylko z potrzeb obliczeniowych. Nie więcej niż 45% energii zużywanej przez typową serwerownię to energia konieczna do przeprowadzenia obliczeń. Reszta, co najmniej 55% jest używana głównie przez systemy chłodzące. Właściciele centrów obliczeniowych samodzielnie nie rozwiążą tego problemu. Jednak coraz częściej myśli się o podpisywaniu umów z firmami, które zajmują się dostarczaniem energii cieplnej. Mogą one odbierać nadmiarowe ciepło z serwerów. To pozwoli na obniżenie kosztów operacyjnych centrum bazodanowego i zmniejszenie emisji zanieczyszczeń. Przedstawiciele Academiki obliczają, że dzięki podłączeniu nowego centrum bazodanowego do miejskiej sieci ciepłowniczej ich firma zaoszczędzi rocznie 375 000 euro.
  18. Aż 15% serwerów zainstalowanych na świecie nie robi niczego pożytecznego. Niepotrzebnie zużywają tylko energię, generując kolosalne koszty. Firma analityczna Kelton Research donosi, że 72% przepytywanych przez nią menedżerów IT przyznaje, że 15% serwerów, którymi zarządzają, nie wykonuje żadnej pożytecznej pracy. Ponadto 83% z nich stwierdziło, że nie posiadają pełnej informacji o wykorzystaniu serwerów, a najpopularniejszą metodą mierzenia efektywności takich maszyn jest badanie zużycia ich procesorów. Kelton Research ocenia, że biorąc pod uwagę wartość sprzętu, koszty zarządzania, energii, chłodzenia i prac konserwacyjnych, na całym świecie wydaje się rocznie około 24,7 miliarda dolarów na obsługę serwerów, które nie wykonują żadnych przydatnych zadań. Z badań wynika, że 4,75 miliona serwerów pracuje przez 24 godziny na dobę, dokonywane są na nich niezbędne aktualizacja oprogramowania, a jednocześnie maszyny te nie są codziennie wykorzystywane. Przyjmując inne szacunki, zgodnie z którymi koszty użytkowania pojedynczego serwera wynoszą 4400 dolarów rocznie, Kelton stwierdza, że maszyny te pochłaniają 20,9 miliarda dolarów i dodatkowo zużywają energię o wartości 3,8 miliarda USD. Okazuje się, że bardzo niewiele osób odpowiedzialnych za serwery stara się zaoszczędzić i np. wyłącza nieużywane maszyny. Poważnym błędem, popełnianym przez przedsiębiorstwa, jest korzystanie z danych o użyciu CPU do oceny efektywności serwera. Maszyna może bowiem zużywać sporo mocy procesora na uruchomienie oprogramowania antywirusowego, dokonywanie defragmentacji pamięci masowych, przeprowadzanie indeksowania czy tworzenie kopii zapasowych. Zajmuje się więc niejako sama sobą, ale takie działania nie przynoszą korzyści przedsiębiorstwu. Przeprowadzone badania zostały zamówione przez firmę 1E, która dostarcza narzędzi pomagających obniżyć koszty zarządzania infrastrukturą IT oraz organizację Alliance to Save Energy.
  19. Opera Software ogłosiła "ponowne wynalezienie Sieci" i pokazała interesującą usługę o nazwie Opera Unite. Zamienia ona każdy komputer w rodzaj sieciowego serwera. Dzięki Opera Unite użytkownik może na przykład udostępnić pliki znajdujące się na swoim komputerze, a dostęp do nich będzie możliwy z poziomu dowolnej przeglądarki. Jak zapewnia norweska firma, potęga Unite tkwi w prostocie. Żeby uruchomić Unite wystarczy zainstalować Operę 10, następnie zalogować się na witrynie Opery i wybrać te usługi, z których chcemy korzystać. Każdej z nich zostanie przypisany unikatowy adres URL, dzięki któremu użytkownicy zyskają do nich dostęp. Na przykład http://pecet.mariusz.operaunite.com/fotki może prowadzić do komputera "pecet" użytkownika "mariusz" i katalogu z udostępnionymi zdjęciami.
  20. Z badań IDC wynika, że po raz pierwszy w historii liczba zakupionych maszyn wirtualnych była większa od liczby kupionych serwerów fizycznych. W roku 2008 liczba sprzedanych serwerów wirtualnych wzrosła o 26,5%, do 2 milionów sztuk. Analitycy prognozują, że w bieżącym roku wzrost ten będzie jeszcze większy. "W 2008 roku około 18,3% nowych serwerów w Europie Zachodniej stanowiły maszyny wirtualne, a jeszcze w 2007 odsetek ten wynosił 14,6%. Sądzimy, że w 2010 roku wzrośnie on do 21%" - powiedział Giorgio Nebuloni, analityk IDC. Już w bieżącym roku liczba wirtualnych serwerów trafiających na rynek ma o 10% przewyższyć liczbę serwerów fizycznych, a 2013 roku stosunek nowych serwerów wirtualnych do fizycznych będzie się kształtował jak 3:2. Do popularności maszyn wirtualnych przyczynia się kryzys gospodarczy oraz fakt, że producenci sprzętu coraz częściej stosują technologie ułatwiające wirtualizację. Nebuloni ostrzega jednak, że wirtualizacja ma nie tylko dobre strony. "Uruchamianie maszyn wirtualnych może doprowadzić do powstania chaotycznych struktur, w których administratorzy nie będą w stanie określić ile wirtualnych serwerów mają do dyspozycji i w jaki sposób wykorzystują każdy z nich. Opracowanie procedur dla zarządzania środowiskami wirtualnymi wymaga zintegrowania ich z istniejącą infrastrukturą składającą się w większości z serwerów średniej klasy i mainframe'ów". Zauważa też, że stosowanie środowisk wirtualizacyjnych będzie wymagało zmian w strukturze samych przedsiębiorstw. Konieczne będzie bowiem przedefiniowanie zadań działów IT, a osoby odpowiedzialne za poszczególne elementy infrastruktury (pamięci masowe, serwery czy sieć) będą musiały bardziej ściśle współpracować.
  21. Microsoft Research z Cambridge przygotował, na zlecenie Association for Computing Machinery, raport na temat rynkowych trendów instalowania dysków SSD w serwerach. Wynika z niego, że stosowanie tego typu rozwiązań jest w chwili obecnej zupełnie nieopłacalne. W swojej analizie eksperci skupili się na szczegółowym zbadaniu sposobu pracy dysków SSD tam, gdzie już zostały zastosowane. Przeanalizowali instalacje w których SSD całkowicie zastąpiły HDD, jak też i takie, gdzie SSD są wykorzystywane jako pośrednik pomiędzy HDD a pamięcią RAM. Z ich badań wynika, że zastosowanie SSD jest nieopłacalne ze względu na wysoką cenę urządzeń i ich niską pojemność. Powoduje to, że cena gigabajta jest znacznie wyższa niż w przypadku HDD. Oszczędności energii czy większa szybkość pracy uzyskiwane dzięki SSD są całkowicie pochłaniane przez wyższy koszt zakupu dysków. Zdaniem Microsoftu, pojemność SSD na każdego dolara wydanego na zakup dysku musi wzrosnąć, w zależności od zastosowania, od 3 do 3000 razy, by urządzenia te mogły wyprzeć tradycyjne dyski twarde w zastosowaniach serwerowych. Jedynym obszarem, w którym sprawdzają się dyski SSD jest, według Microsoftu, pełnienie roli pamięci podręcznej i pośrednika pomiędzy HDD a RAM. Jednak i tutaj korzyści występują dość rzadko, gdyż dzieje się tak w przypadku około 10-20% zastosowań.
  22. Jeszcze niedawno wydawało się, że kryzys ekonomiczny przysłuży się Linuksowi. Analitycy przewidywali, że dzięki niemu opensource'owy system operacyjny zdobędzie nieco rynku kosztem Microsoftu. Najnowszy raport rozwiewa jednak te złudzenia. Zdaniem IDC sprzedaż serwerów x86 z systemem Linux spadnie bardziej, niż analogicznych maszyn z systemem Windows. Analitycy przewidują, że w 2009 roku na rynek trafi 1,47 miliona takich maszyn z Linuksem na pokładzie. To o 16,1% mniej niż w roku 2008, kiedy to kupiono 1,747 miliona linuksowych serwerów. Serwery z systemem Microsoftu zanotują 12,8-procentowy spadek sprzedaży, do poziomu 5,016 miliona sztuk. Matther Eastwood, analityk IDC, potrafi wyjaśnić większy spadek sprzedaży serwerów z Linuksem. Dzieje się tak dlatego, że olbrzymie centra bazodanowe rozpoczęły cięcie kosztów i ograniczyły inwestycje. Z kolei wiele przedsiębiorstw wykupiło licencje na Windows Server, więc w tej chwili nie muszą wydawać dodatkowych pieniędzy i instalują wcześniej zakupione oprogramowanie. IDC przewiduje, że światowy rynek serwerów x86 skukrczy się w bieżącym roku o 13,5%.
  23. ARM ogłosił, że dzięki swojemu nowemu procesorowi Cortex-A9 ma zamiar zaistnieć na rynku serwerów. Jest to o tyle zaskakujące, że firma znana jest z produkcji energooszczędnych procesorów, które są obecne m.in. w większości wytwarzanych smartfonów. Firma uważa jednak, że jej najnowszy układ - Cortex-A9 - który umożliwia zastosowanie w procesorze nawet czterech rdzeni, jest na tyle wydajny, iż może zostać zastosowany w serwerach. Nie wiadomo, jak rynek zareaguje na ofertę ARM. Olbrzymią popularnością cieszą się bowiem serwery korzystające z architektury x86. W samym czwartym kwartale 2007 roku rynek tego typu maszyn zwiększył się o 10,3%. Architektura ARM może więc spotkać się z chłodnym przyjęciem. Z drugiej jednak strony energooszczędny procesor może znacznie zmniejszyć koszty użytkowania farm serwerowych. Cortex-A9 ma zadebiutować na rynku w przyszłym roku.
  24. Pierwsze systemy z czterordzeniową Barceloną firmy AMD trafią na rynek w kwietniu. Kevin Knox, wiceprezes AMD, powiedział, że kilku dużych producentów serwerów - HP, IBM, Sun Microsystems i Dell - rozpocznie sprzedaż maszyn z Barceloną jeszcze przed końcem II kwartału bieżącego roku. Szczególnie ambitne plany ma HP, które ogłosiło, że w maju będzie można kupić ośmioprocesorowy ProLiant DL785. Oznacza to, że na rynek trafi maszyna wykorzystująca 32 rdzenie. Będzie to największy komercyjny serwer x86. Knox zapowiedział również, że w drugiej połowie bieżącego roku pojawi się Opteron o nazwie kodowej Shanghai. Będzie to pierwszy procesor AMD wykonany w technologii 45 nanometrów.
  25. Firma Metaram przygotowała technologię, która pozwala w łatwy sposób dwu- a nawet czterokrotnie zwiększyć ilość pamięci RAM dostępną dla serwera. Pierwszymi klientami MetaRAM zostały Hynix i SmartModular. Układy pamięci od pewnego czasu nie nadążają za rozwojem procesorów. Na rynku mamy już 2-, 4- i 8-rdzeniowe CPU przeznaczone dla serwerów i układy te są w stanie wykonać jednocześnie tak wiele zadań, że muszą oczekiwać, na pamięć, która nie dorównuje im wydajnością. W efekcie spada wydajność całego systemu. Musimy pamiętać też i o tym, że nie możemy bez końca dokładać kolejnych kości pamięci. Twórców serwerów ogranicza tu przede wszystkim konstrukcja płyty głównej, która ma określoną liczbę slotów. Rozwiązaniem problemu jest zastosowanie układu MetaSDRAM, który jest pośrednikiem pomiędzy kośćmi pamięci a kontrolerem. Jego zastosowanie powoduje, że producenci mogą na pojedynczej kości umieścić nawet czterokrotnie więcej układów scalonych, gdyż MetaRAM zajmuje się przetwarzaniem dodatkowych sygnałów elektrycznych. Odbywa się to oczywiście kosztem większych opóźnień i poboru mocy (w przypadku układu FB-DIMM jest to opóźnienie rzędu 40-50 nanosekund), jednak korzyści zdecydowanie przewyższają koszty. Obecnie na serwerowej płycie głównej, która wyposażona została w cztery sloty pamięci, możemy zastosować 128 gigabajtów RAM. Dzięki nowym układom zmieści się tam nawet 512 GB RAM. Co więcej, zastosowanie rozwiązania MetaRAM wiąże się z olbrzymimi oszczędnościami gotówki. Firma SmartModular zwykle sprzedaje 8-gigabajtowy serwerowy układ DIMM za około 5000 USD. Kość o tej samej pojemności, wyposażona w chip MetaRAM wyceniona została na 1500 dolarów. Układy MetaRAM współpracują zarówno z technologią DDR2 jak i DDR3. Powstają one w fabrykach TSMC i zostały wycenione na 200 USD za chip dla 8-gigabajtowych DIMM i na 450 USD dla 16-gigabajtowych układów pamięci.
×
×
  • Dodaj nową pozycję...