Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Zbyt dużo rdzeni spowalnia superkomputery

Rekomendowane odpowiedzi

Naukowcy z Sandia National Laboratories udowodnili, że próby podnoszenia wydajności superkomputerów poprzez samo tylko zwiększanie liczby rdzeni w procesorach, w przypadku wielu złożonych aplikacji prowadzą do... spadku mocy obliczeniowej.

Przeprowadzone symulacje wykazały, że jeśli w superkomputerach użyjemy procesorów dwu- zamiast czterordzeniowych, uzyskamy znaczy wzrost wydajności. Dalsze zwiększanie liczby rdzeni i zastosowanie układów ośmiordzeniowych w miejsce czterordzeniowych staje się nieopłacalne. Wzrost mocy jest bowiem bardzo niewielki. Z kolei użycie jeszcze bardziej złożonych procesorów prowadzi do stopniowego spadku wydajności systemu. I tak superkomputer do którego budowy wykorzystano 16-rdzeniowe procesory będzie tak samo wydajny, jak maszyna z identyczną liczbą układów... dwurdzeniowych.


Przyczyną takiego stanu rzeczy są z jednej strony niewystarczająca szerokość interfejsów pamięci, a z drugiej - ciągła rywalizacja rdzeni o dostęp do niej.

Na opublikowanym wykresie wyraźnie widać (niebieska linia) gwałtowny wzrost czasu oczekiwania na dostęp do pamięci w przypadku wykorzystywania standardowych technologii i procesorów 16-rdzeniowych.

Wciąż nierozwiązany pozostaje problem dostępu procesorów do podsystemu pamięci, chociaż, jak wynika z wykresu, teoretycznie można go przezwyciężyć stosując istniejące, przynajmniej na papierze, rozwiązania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może troszkę nie na temat, ale w Windows 7 jest wbudowana obsługa do 256 procesorów, ale co najważniejsze i łączące ten news z Windowsem jest to że programistom m$ udało się właśnie rozwiązać problem dostępu przez rdzenie do pamięci, a więc jeden wątek już nie blokuje dostępu do dzielonej pamięci.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

to czyżby 4 rdzieniowki i więcej to chłyt matetindody??

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może troszkę nie na temat, ale w Windows 7 jest wbudowana obsługa do 256 procesorów, ale co najważniejsze i łączące ten news z Windowsem jest to że programistom m$ udało się właśnie rozwiązać problem dostępu przez rdzenie do pamięci, a więc jeden wątek już nie blokuje dostępu do dzielonej pamięci.

Skoro nie blokuje dostępu do dzielonej pamięci to w jaki sposób można zapanować nad tym aby jednocześnie wątki nie podmieniały sobie danych w niewłaściwych momentach skoro nie są zsynchronizowane ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Od dekad elastyczna elektronika była niewielką niszą. Teraz może być gotowa, by wejść do mainstream'u, stwierdził Rakesh Kumar, lider zespołu, który stworzył plastikowy procesor. O elektronice zintegrowanej w praktycznie każdym przedmiocie, od podkoszulków poprzez butelki po owoce, słyszymy od lat. Dotychczas jednak plany jej rozpowszechnienia są dalekie od realizacji, a na przeszkodzi stoi brak elastycznego, plastikowego, wydajnego i taniego procesora, który można by masowo produkować.
      Wiele przedsiębiorstw próbowało stworzyć takie urządzenie i im się nie udało. Według naukowców z amerykańskiego University of Illinois Urbana-Champaign i specjalistów z brytyjskiej firmy PragmatIC Semiconductor, problem w tym, że nawet najprostszy mikrokontroler jest zbyt złożony, by można go było masowo wytwarzać na plastikowym podłożu.
      Amerykańsko-brytyjski zespół zaprezentował właśnie uproszczony, ale w pełni funkcjonalny, plastikowy procesor, który można masowo produkować bardzo niskim kosztem. Przygotowano dwie wersje procesora: 4- i 8-bitową. Na substracie z 4-bitowymi układami, których koszt masowej produkcji liczyłby się dosłownie w groszach, działa 81% procesorów. To wystarczająco dobry wynik, by wdrożyć masową produkcję.
      Procesory wyprodukowano z cienkowarstwowego tlenku indowo-galowo-cynkowego (IGZO), dla którego podłożem był plastik. Innowacja polegała zaś na stworzeniu od podstaw nowej mikroarchitektury – Flexicore.Musiała być maksymalnie uproszczona, by sprawdziła się w na plastiku. Dlatego zdecydowano się na układy 4- i 8-bitowe zamiast powszechnie wykorzystywanych obecnie 16- i 32-bitowych. Naukowcy rozdzielili moduły pamięci przechowującej instrukcje od pamięci przechowującej dane. Zredukowano również liczbę i stopień złożoności instrukcji, jakie procesor jest w stanie wykonać. Dodatkowym uproszczeniem jest wykonywanie pojedynczej instrukcji w jednym cyklu zegara.
      W wyniku wszystkich uproszczeń 4-bitowy FlexiCore składa się z 2104 podzespołów. To mniej więcej tyle samo ile tranzystorów posiadał procesor Intel 4004 z 1971 roku. I niemal 30-krotnie mniej niż konkurencyjny PlasticARM zaprezentowany w ubiegłym roku. Uproszczenie jest więc ogromne. Stworzono też procesor 8-bitowy, jednak nie sprawuje się on tak dobrze, jak wersja 4-bitowa.
      Obecnie trwają testy plastikowych plastrów z procesorami. Są one sprawdzane zarówno pod kątem wydajności, jak i odporności na wyginanie. Jednocześnie twórcy procesorów prowadzą prace optymalizacyjne, starając się jak najlepiej dostosować architekturę do różnych zadań. Jak poinformował Kumar, badania już wykazały, że można znacznie zredukować pobór prądu, nieco zbliżając do siebie poszczególne bramki.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Do końca przyszłego roku w Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie. Akademickie Centrum Komputerowe CYFRONET AGH zostało wytypowane przez Europejkie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (EuroHPC JU) jako jedno z 5 miejsc w Europie, w których zostaną zainstalowane komputery tworzące ogólnoeuropejską sieć przetwarzania danych.
      Najpotężniejszym z komputerów sieci będzie JUPITER. To pierwszy w Europie system eksaskalowy – czyli przeprowadzający ponad 1018 operacji zmiennoprzecinkowych na sekundę. Zostanie on zainstalowany w Jülich Supercomputing Centre w Niemczech. Pozostałe cztery maszyny to DAEDALUS, który trafi do Grecji, LEVENTE (Węgry), CASPIr (Irlandia) oraz krakowski EHPCPL.
      Przedstawiciele Cyfronetu zapewniają, że projekt maszyny jest na bardzo zaawansowanym stadium. Nie mogą jednak ujawnić szczegółów, gdyż w superkomputerze zostaną wykorzystane technologie, które nie są jeszcze dostępne na rynku, zatem objęte są przez producentów tajemnicą. Zapewniono nas jednak, że nowy superkomputer będzie o rząd wielkości bardziej wydajny od innych polskich superkomputerów i gdy powstanie, prawdopodobnie będzie jednym z 50 najpotężniejszych maszyn na świecie.
      Obecnie w Cyfronecie stoi najpotężniejszy superkomputer w Polsce, Athena. Maszyna o mocy 5,05 PFlopa znajduje się na 105. pozycji listy 500 najbardziej wydajnych superkomputerów na świecie i jest jednym z 5 polskich superkomputerów tam wymienionych. Wiadomo, że EHPCPL będzie kilkukrotnie bardziej wydajny od Atheny.
      Celem EuroHPC JU jest stworzenie w Europie jednej z najpotężniejszych infrastruktur superkomputerowych na świecie. Już w tej chwili działają maszyny LUMI (151,9 PFlop/s) w Finlandii, MeluXina (10,52 PFlop/s) w Luksemburgu, Karolina (6,75 PFlop/s) w Czechach, Discoverer (4,52 PFlop/s) w Bułgarii i Vega (3,82 PFlop/s) na Słowenii. Budowane są też LEONARDO (Włochy), Deucalion (Portugalia) oraz MareNostrum 5 (Hiszpania). Fiński LUMI to 3. najpotężniejszy superkomputer świata i 3. najbardziej wydajny pod względem energetycznym komputer na świecie. Polska Athena zajmuje zaś wysoką 9. pozycję na liście najbardziej wydajnych energetycznie komputerów świata.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Zespół naukowców, inżynierów i marynarzy ze statku badawczego Neil Armstrong należącego do US Navy, którego operatorem jest Woods Hole Oceanographic Institution (WHOI), pobrał 11,5-metrowy rdzeń osadów z najgłębszej części Rowu Portorykańskiego. Osady zostały pozyskane z głębokości ponad 8000 metrów. To rekord po względem głębokości, z jakiej pozyskano rdzeń na Atlantyku, a może i rekord w ogóle.
      Zespołowi naukowemu z WHOI, Uniwersytetu w Monachium i kilku amerykańskich uniwersytetów, przewodzili profesor Steven D'Hondt oraz doktor Robert Pockalny. Celem wyprawy badawczej, która prowadzona była w lutym i marcu bieżącego roku, było lepsze zrozumienie adaptacji mikroorganizmów do życia w morskich osadach na różnych głębokościach. Dlatego też uczeni pobierali próbki zarówno z głębokości 50 metrów, jak i około 8358 metrów. Pobieraliśmy próbki, gdyż chcemy się dowiedzieć, jak mikroorganizmy żyjące na dnie morskim radzą sobie z ciśnieniem. Naszym ostatecznym celem jest zrozumienie interakcji pomiędzy organizmami żyjącymi w ekstremalnych środowiskach a ich otoczeniem, wyjaśnia D'Hondt.
      Pobranie rdzenia z tak dużej głębokości było możliwe dzięki specjalnemu systemowi opracowanemu już w 2007 roku przez Jima Brodę dla statku badawczego Knorr. Po tym, jak Knorr zakończył służbę, jego system został zaadaptowany do krótszego Neila Armstronga.
      Po zakończeniu obecnych badań system do pozyskiwania rdzeni z tak dużej głębokości zostanie przekazany OSU Marine Sediment Sampling Group. To zespół finansowany przez Narodową Fundację Nauki, który pomaga amerykańskiej społeczności akademickiej w pobieraniu próbek osadów morskich. Dzięki temu system będzie dostępny dla całej amerykańskiej floty statków badawczych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Osiem lat po przeszczepie komórek węchowych do kanału kręgowego pacjentki z całkowitym uszkodzeniem rdzenia lekarze usunęli stamtąd masę. Przeszczep przeprowadzano, licząc na przywrócenie funkcji sensorycznych i ruchowych.
      Jak tłumaczą autorzy raportu z Journal of Neurosurgery: Spine, komórki węchowe zlokalizowane są w stropie przewodów nosowych, a także w górnej części przegrody nosowej koło blaszki perforowanej i na przyśrodkowej powierzchni górnej małżowiny nosowej. Śluzówka znajduje się w niższej części jamy nosowej. Poza neuronami węchowymi błona węchowa zawiera komórki progenitorowe oraz makroglej OEC (od ang. olfactory ensheathing cells); podczas badań laboratoryjnych oraz in vivo wykazano, że oba rodzaje komórek wspomagają naprawę uszkodzonego rdzenia.
      Opisywana pacjentka przeżyła w wieku 18 lat wypadek, w wyniku którego doznała urazu - złamania z przemieszczeniem - na poziomie 10. i 11. kręgu piersiowego . Mimo operacyjnej stabilizacji kręgosłupa doszło do paraplegii. Trzy lata później, mając nadzieję na odzyskanie czucia i funkcji motorycznych w nogach, kobieta przeszła poza granicami USA autoprzeszczep błony węchowej (umieszczono ją w miejscu uszkodzenia). Osiem lat po eksperymentalnej terapii chora zgłosiła się do Szpitali i Klinik Uniwersytetu Iowa, uskarżając się na ból w środkowej i dolnej części pleców. Badanie neurologiczne nie wykazało klinicznej poprawy po implantacji, lecz obrazowanie ujawniło masę zlokalizowaną koło rdzenia. To ona powodowała ból.
      Analiza wyciętej zmiany ujawniła, że w środku znajdowały się drobne niedziałające gałęzie nerwowe. Mając to na uwadze, lekarze stwierdzili, że rozwinęły się one z nerwowych komórek progenitorowych. Okazało się również, że większość masy wypełniały cysty wyścielone śluzówką układu oddechowego, a także gruczołami podśluzówkowymi i komórkami kubkowymi. W masie występowała poza tym duża ilość materiału przypominającego śluz. Jego akumulacja wywołała objawy pacjentki.
      Amerykanie dywagują, że masa rozwinęła się, bo zamiast wyekstrahować i oczyścić OEC, kobiecie wszczepiono po prostu fragment błony węchowej.
      Naukowcy podkreślają, że rzadki przypadek komplikacji nie powinien zniechęcać do prowadzenia dalszych badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...