Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'HPC' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 5 wyników

  1. Bill Kircos, odpowiedzialny w Intelu za komunikację z mediami, poinformował na firmowym blogu, że koncern porzuca - przynajmniej na jakiś czas - rynek samodzielnych układów graficznych. Jednocześnie stwierdził, że GPGPU Larrabee, z którego Intel zrezygnował pół roku temu, zostanie przygotowany pod kątem pracy na rynku HPC (high performance computing). Szczegóły na ten temat mają zostać przedstawione w przyszłym tygodniu podczas International Supercomputing Conference, która rozpocznie się 30 maja w Niemczech. Niewykluczone, że podczas przyszłotygodniowej prezentacji dowiemy się, czy w układzie Larrabee zostaną zastosowane rozwiązania przygotowane na potrzeby 48-rdzeniowej architektury SCC (Single-chip Cloud Computer).
  2. Anwar Gholoum, jeden z inżynierów zatrudnionych w intelowskim Laboratorium Technologii Mikroprocesorowych, opublikował na oficjalnym blogu Intela wpis, w którym zwraca programistom uwagę na poważne zmiany, jakie zajdą w najbliższych latach. Gholoum wspomina o rozmowach, jakie toczy z innymi inżynierami. Z jednej strony od lat mówi się o tym, że osoby rozwijające oprogramowanie starają się jak najmniejszym kosztem przystosować je do pracy na dwu- czy czterordzeniowych procesorach. Z drugiej zaś, inżynierowie już dyskutują o procesorach przyszłości, zawierających dziesiątki, setki, a nawet tysiące rdzeni. W przypadku takich procesorów taktyka "oszczędnego" programowania się nie sprawdzi. Obecnie programiści w dość prosty sposób przystosowują np. gry napisane dla procesorów jednordzeniowych, do współpracy z czterordzeniowymi układami. Wystarczy, że "rozbiją" pojedynczy wątek na kilka oddzielnych: jeden odpowiedzialny za przetwarzanie muzyki, drugi za grafikę, trzeci za sztuczną inteligencję. Taka taktyka zapewnia spore oszczędności, gdyż "rozbite" wątki korzystają z pierwotnego kodu pojedynczego wątku, więc ich przygotowanie nie wymaga dużo pracy. Zmiany takie powodują pewne zwiększenie wydajności, gdyż każdy z wątków może być przetwarzany przez osobny rdzeń. Jeśli zatem rozdzielimy oryginalny wątek na 4, to będą one korzystały z 4 i tylko z 4 rdzeni. Gholoum uważa, że programiści powinni przygotować się do całkowitej zmiany podejścia. Tak naprawdę procesory przyszłości będą wymagały przepisania niemal całego kodu tak, by każdy z wątków mógł skorzystać z dowolnej dostępnej liczby rdzeni. Dopiero wtedy w pełni wykorzystamy wydajność wielordzeniowych procesorów. Już w tej chwili istnieją techniki, które działają właśnie w ten sposób. Bardzo dobrze skaluje się ray tracing, czyli śledzenia światła w wirtualnych scenach. Wykorzystywane w tym przypadku algorytmy są tak skonstruowane, że dołożenie kolejnych rdzeni powoduje zwiększenie prędkości przetwarzania, gdyż potrafią one skorzystać z dodatkowych mocy obliczeniowych. Większość aplikacji jest jednak napisanych tak, że ich skalowanie będzie wymagało olbrzymiego nakładu pracy. Tym bardziej, że zarówno współczesne narzędzia developerskie i testowe oraz języki programowania są mocno zorientowane na przetwarzanie jednowątkowe. Gholoum zauważa, że programiści specjalizujący się w rynku HPC (high-performance computing) od lat wiedzą o problemach związanych z przetwarzaniem wielowątkowym. Osoby programujące na rynek konsumencki jak dotąd nie przejmowały się kłopotami, z jakimi musieli zmagać się ich koledzy oprogramowaujący potężne klastry. W najbliższych latach może się to zmienić.
  3. Wszystko wskazuje na to, że Microsoft coraz poważniej myśli o zaistnieniu na zdominowanym przez Linuksa rynku HPC (high-performance computing). Obecnie koncern z Redmond jest na nim niemal nieobecny, według IDC jego udziały wynoszą 2 do 3%. HPC to rodzaj systemu komputerowego, który korzysta z więcej niż jednej maszyny do wykonania konkretnego zadania. W ostatnim zestawieniu listy TOP500 (przedstawia ona 500 najpotężniejszych superkomputerów na świecie) znalazły się dwie maszyny z systemem Windows Compute Cluster Server 2003. Microsoft planuje jednak podbić rynek znacznie mniejszych maszyn, z których korzystają małe firmy. Do serwerów Windows należy ponad 60% udziałów w tych rynkach, na których Microsoft jest obecny. Chcemy osiągnąć podobny wynik na innych rynkach – mówi Kyril Faenov, szef microsoftowego oddziału HPC. W ramach swojej strategii Microsoft proponuje pakiet oprogramowania do HPC warty 50 000 dolarów. Z jednej strony nie są to duże pieniądze na rynku HPC, z drugiej jednak dla wielu małych firm to spora kwota. Tym bardziej, że przedsiębiorstwa takie nie są przekonane, iż HPC jest im do czegokolwiek potrzebne. Microsoft będzie próbował zaprezentować im korzyści wynikające z używania wysoko wydajnych systemów. Koncern kładzie szczególny nacisk na stwierdzenie, że systemy HPC mogą, dzięki jego oprogramowaniu, osiągnąć moc obliczeniową porównywalną z superkomputerami. Analitycy uważają, że na rynku HPC, mimo iż niepodzielnie jak dotąd króluje tam Linux, może znaleźć się miejsce dla Microsoftu. Jednak o ewentualnym sukcesie zdecyduje nie sam system operacyjny, a atrakcyjne aplikacje, które spełnią zadania stawiane przed nimi przez klientów. Microsoft podpisał już odpowiednie umowy z firmami, które mają tworzyć programy dla HPC. Znalazły się wśród nich, m.in. Dassault Systemes, MathWorks and Parallel Geoscience. Analityk IDC, Jie Wu, mówi, że na razie nie widzi zbytniego zainteresowania wysoko wydajnymi maszynami wśród małych firm. Zauważa jednak, iż strategia Microsoftu pozwoli koncernowi skorzystać na popycie gdy tylko się on pojawi. Dobrą wiadomością dla koncernu z Redmond może być to, że IBM nie będzie z nim konkurował. Błękitny Gigant, który ma olbrzymie doświadczenie i niezwykle silną pozycję na rynku HPC i który jest twórcą najpotężniejszych systemów komputerowych świata, nie jest bowiem zainteresowany niższym segmentem rynku HPC. Microsoft nie musi również martwić się konkurencją ze strony drugiego wielkiego gracza na tym rynku, firmy HP. Na podstawie umowy między oboma przedsiębiorstwami HP oferuje na swoich serwerach system Windows Compute Cluster Server 2003. Swoje klastry z tym systemem oferuje również IBM. Najpoważniejszym konkurentem koncernu będzie więc Linux.
  4. Microsoftowy system dla klastrów komputerowych Windows Compute Cluster Server (CCS) zaczyna odnosić sukcesy. Obecnie rynek klastrów jest niemal całkowicie zdominowany przez Linuksa. Aby się o tym przekonać, wystarczy spojrzeć na listę TOP500, na której wymieniono 500 najpotężniejszych superkomputerów świata. To w przeważającej mierze (72,20%) klastry. Zdecydowana większość z nich, bo aż 75,20% korzysta z systemów Linux. Kolejny pod względem popularności jest Unix (17,20%). Windows jest na klastrach zupełnie nieobecny. Sytuacja jednak powoli ulega zmianie. Microsoft tworząc CCS nie miał zamiaru konkurować na rynku superkomputerów. Koncern postanowił skierować swoją ofertę do właścicieli mniejszych klastrów. I, jak wszystko na to wskazuje, był to strzał w dziesiątkę. To zachęcający rynek, którym nikt się jeszcze nie zainteresował. Gdy Microsoft pokazał CCS byliśmy dość sceptyczni, ale idzie im znacznie lepiej, niż się spodziewaliśmy – mowi John Enck, analityk firmy Gartner. Windows Compute Cluster Server zakupił na przykład South Florida Water Management District. System Microsoftu pracuje na niewielkim, składającym się z pięciu maszyn, klastrze, który jest odpowiedzialny za zarządzanie przepływem wody w ramach wartego miliardy dolarów projektu rewitalizacji bagien w Everglades National Park. Wspomniana organizacja korzysta też ze znacznie większego linuksowego klastra, ale używa również windowsowych programów do modelowania, które, dzięki zainstalowaniu CCS, z łatwością przeniesiono na klaster. Innym klientem Microsoftu został Virginia Polytechnic Institute. CCS działa tam na 16-serwerowym klastrze i służy do badań nad zagadnieniami dotyczącymi transportu oraz nad modelowaniem molekuł związanych z badaniami nad nowotworami. Microsoft zaczyna, co prawda, odnosić sukcesy, ale przed koncernem jeszcze sporo pracy. Firma musi walczyć z niechęcią użytkowników. Gdy, na przykład, firma SGI, która specjalizuje się w produkcji wysoko wydajnych systemów komputerowych (HPC – high-performance computing), ogłosiła, że oprócz Linuksa będzie oferowała swoim klientom system CCS, spotkało się to z bardzo chłodnym przyjęciem. Rynek HPC jest od dziesiątków lat związany z rozwiązaniami bazującymi na Uniksie i Linuksie – wyjaśnia analityk Carl Claunch z Gartnera. Środowisko uniwersyteckie jest bardzo przywiązane do Linuksa. Pozycja tego systemu na rynku HPC jest bardzo silna. Linux ma na rynku klastrów tę przewagę nad Windows, że jest to rozwiązanie dobrze znane, dojrzałe, istnieje na niego wiele programów, a sam system nieraz udowodnił, że jest łatwo skalowalny i może działać na potężnych klastrach, komentuje Claunch. Tymczasem Shawn Hansen, odpowiedzialny w Microsofcie za rynek HPC, zapowiada, że wraz z drugą wersją CCS zostanie wprowadzonych wiele zmian, które pozwolą temu systemowi lepiej konkurować z innymi rozwiązaniami. Jego firma podpisała już zresztą umowy o współpracy z takimi producentami klastrów jak IBM, Dell, SGI czy HP. CCS version 2 ma bazować na architekturze Longhorn Server, czyli następcy Windows Server 2003. Longhorn Server trafi na rynek jeszcze w bieżącym roku. Nie wiadomo natomiast, kiedy nastąpi premiera CCS v2.
  5. Firma Silicon Graphics poinformowała, że będzie dostarczała klastry komputerowe z preinstalowanym systemem Windows. Dotychczas przedsiębiorstwo skupiało się przede wszystkim na klastrach z Linuksem i Uniksem. W marcu do klientów trafią pierwsze klastry Altix XE z systemem Windows Compute Cluster Server 2003. Oczywiście SGI wciąż będzie oferowała klastry z Linuksem oraz z własnym uniksowym systemem IRIX. Windows Compute Cluster 2003, który zadebiutował w ubiegłym roku, jest pierwszym tego typu systemem ze stajni Microsoftu. Firmie SGI udało się w 2006 roku uniknąć bankructwa i od tej pory szuka sposobów na zwiększenie swoich udziałów w rynku. Dave Parry, wiceprezes SGI, powiedział, że rozpoczęcie sprzedaży klastrów z systemem Windows ma na celu spowodowanie, iż systemy typu HPC (High Performance Computing) trafią do szerszej rzeszy klientów. Ze swej strony Microsoft ma nadzieję, że klienci korzystający z jego systemów na stacjach roboczych, przesiądą się na klastry. Chcielibyśmy, by systemy HPC stały się bardziej popularne – mówi Kyril Faenov, menedżer Microsoft ds. wysoko wydajnych komputerów.
×
×
  • Dodaj nową pozycję...