Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Mniej polskich superkomputerów

Rekomendowane odpowiedzi

Opublikowaną właśnie 33. lista najpotężniejszych superkomputerów świata rozpoczyna, podobnie jak w październiku 2008, Roadrunner. Ten wybudowany przez IBM-a komputer jest pierwszą maszyną w historii, której wydajność przekroczyła barierę petaflopsa (1,105 PFlops). Na drugim miejscu ponownie uplasował się Jaguar (1,059 PFlops) czyli system Cray XT5.

Zmiany zaszły na trzeciej pozycji, gdzie znajdziemy maszynę IBM BlueGene/P o nazwie JUGENE. Stoi ona w niemieckim Forschungszentrum Juelich (FZJ) i w teście Linpack osiągnęła wydajność 825,5 teraflopsów. Teoretycznie i ona jest w stanie przekroczyć barierę petaflopsa. FZJ jest też właścicielem kolejnego komputera, który uplasował się w pierwszej 10. To zajmujący 10. miejsce komputer JUROPA, złożony z serwerów Bull Novascale i SunBlade x6048, o wydajności 274,8 TFlops. Oba niemieckie komputery to jedynie nieamerykańskie maszyny wśród 10 najpotężniejszych superkomputerów.

W pierwszej 10 zaszły jeszcze dwie zmiany. Na miejscu 6. znajdziemy kolejny system Craya - Cray XT5 o nazwie Kraken. Maszyna zainstalowana na University of Tennessee osiąga 463,3 TFlops i jest najpotężniejszym na świecie komputerem wykorzystywanym przez uczelnię. Z kolei na 9. pozycji uplasował się IBM BlueGene/P o nazwie Dawn (415,7 TFlops).

Warto wspomnieć też o chińskim Dawning 5000A z Szanghajskiego Centrum Superkomputerowego. Zajmujący 15. miejsce w zestawieniu sprzęt (180,6 TFlops) jest najpotężniejszym komputerem z systemem Windows HPC 2008.

Nie powinniśmy również zapomnieć o Shaheenie, superkomputerze BlueGene/P z Arabii Saudyjskiej. Maszyna o wydajności 185,17 TFlops uplasowała się na 14. pozycji.

Najwięcej superkomputerów z listy TOP500 pracuje w USA. Jest ich tam 291, czyli tyle samo, co w listopadzie ubiegłego roku. Europa umieściła na liście 145 systemów, czyli o 6 mniej niż w ubiegłym roku. Udziały Azji zwiększyły się z 45 do 47 maszyn.

Jeszcze w listopadzie 2008 na liście TOP500 znajdowało się 6 polskich superkomputerów. Obecnie są cztery i uplasowały się na pozycjach 107. (Galera, Politechnika Gdańska), 281. (firma telekomunikacyjna), 300. (firma telekomunikacyjna) i 422. (Uniwersytet Warszawski).

Największym producentem superkomputerów jest HP. Na liście znalazło się 212 maszyn tej firmy (42,40%). Na drugim miejscu jest IBM ze 188 komputerami (37,6%). IBM jest jednak liderem pod względem całkowitej zainstalowanej mocy obliczeniowej. Warto zwrócić też uwagę na legendarną firmę Cray, która ma na liście 20 maszyn, czyli 4%, ale cieszą się one dużą popularnością wśród nabywców najpotężniejszych z potężnych. Wśród pierwszej 50 jest aż 10 (czyli 20%) komputerów Craya.

Błyskawicznie rosną wymagania stawiane przed maszynami z pierwszej światowej pięćsetki. Obecnie wydajność ostatniego komputera na liście wynosi 17,1 TFlops. Jeszcze pół roku temu było to 12,64 TFlops. Najsłabszy obecnie superkomputer uplasowałby się w listopadzie ubiegłego roku na 274. pozycji. Całkowita zainstalowana moc na TOP500 wynosi 22,6 PFlops, gdy jeszcze przed rokiem było to 11,7 PFlops.

Wśród producentów procesorów bezapelacyjnie wygrywa Intel, którego układy znajdziemy w 399 systemach (79,8%). Koncern więc zwiększył swoje posiadanie o 4 punkty procentowe. Odbyło się to kosztem IBM-a i AMD. Procesory tej pierwszej firmy znajdziemy w 55 systemach, a drugiej - w 43. Jeszcze przed pół roku było to, odpowiednio, 60 i 59 systemów.

Udział systemów operacyjnych praktycznie nie uległ zmianie. Liderem jest Linux zainstalowany na 443 superkomputerach (88,60%). Na drugim miejscu uplasował się Unix z 22 komputerami (4,40%), na trzecim Windows (5 komputerów, 1%), dalej BSD (1 komputer, 0,2%), a 29 maszyn (5,8%) używa systemów mieszanych. W ciągu pół roku Linux zyskał więc 4 systemy, Unix stracił 1, z rankingu zniknął Mac, a liczba systemów mieszanych zmniejszyła się o 2.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kurcze, te superkomputery to hurtem chyba produkuje się teraz. Zresztą widać to w podwojeniu się całkowitej mocy. A jeszcze pod koniec ub. roku rodzima Galera była na 68 miejscu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ano spadamy, spadamy... Ale myślę, że nikt się tym nie przejmuje, takie HP czy inne IBMy mogą się prześcigać, ale z tego co mi wiadomo, Galary nie zbudowano po to aby się pochwalić, tylko po to aby mieć swoje narzędzie do badań, i nie musieć wynajmować mocy obliczeniowej z serwerów zagranicznych...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Do końca przyszłego roku w Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie. Akademickie Centrum Komputerowe CYFRONET AGH zostało wytypowane przez Europejkie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (EuroHPC JU) jako jedno z 5 miejsc w Europie, w których zostaną zainstalowane komputery tworzące ogólnoeuropejską sieć przetwarzania danych.
      Najpotężniejszym z komputerów sieci będzie JUPITER. To pierwszy w Europie system eksaskalowy – czyli przeprowadzający ponad 1018 operacji zmiennoprzecinkowych na sekundę. Zostanie on zainstalowany w Jülich Supercomputing Centre w Niemczech. Pozostałe cztery maszyny to DAEDALUS, który trafi do Grecji, LEVENTE (Węgry), CASPIr (Irlandia) oraz krakowski EHPCPL.
      Przedstawiciele Cyfronetu zapewniają, że projekt maszyny jest na bardzo zaawansowanym stadium. Nie mogą jednak ujawnić szczegółów, gdyż w superkomputerze zostaną wykorzystane technologie, które nie są jeszcze dostępne na rynku, zatem objęte są przez producentów tajemnicą. Zapewniono nas jednak, że nowy superkomputer będzie o rząd wielkości bardziej wydajny od innych polskich superkomputerów i gdy powstanie, prawdopodobnie będzie jednym z 50 najpotężniejszych maszyn na świecie.
      Obecnie w Cyfronecie stoi najpotężniejszy superkomputer w Polsce, Athena. Maszyna o mocy 5,05 PFlopa znajduje się na 105. pozycji listy 500 najbardziej wydajnych superkomputerów na świecie i jest jednym z 5 polskich superkomputerów tam wymienionych. Wiadomo, że EHPCPL będzie kilkukrotnie bardziej wydajny od Atheny.
      Celem EuroHPC JU jest stworzenie w Europie jednej z najpotężniejszych infrastruktur superkomputerowych na świecie. Już w tej chwili działają maszyny LUMI (151,9 PFlop/s) w Finlandii, MeluXina (10,52 PFlop/s) w Luksemburgu, Karolina (6,75 PFlop/s) w Czechach, Discoverer (4,52 PFlop/s) w Bułgarii i Vega (3,82 PFlop/s) na Słowenii. Budowane są też LEONARDO (Włochy), Deucalion (Portugalia) oraz MareNostrum 5 (Hiszpania). Fiński LUMI to 3. najpotężniejszy superkomputer świata i 3. najbardziej wydajny pod względem energetycznym komputer na świecie. Polska Athena zajmuje zaś wysoką 9. pozycję na liście najbardziej wydajnych energetycznie komputerów świata.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Tegoroczna International Conference for Hight Performance Computing (SC19) nie przyniosła żadnych sensacyjnych informacji na temat TOP500, listy najpotężniejszych komputerów na świecie. Znacznie bardziej interesujące było to, co mówiono o systemach eksaskalowych, których budowa ma rozpocząć się w 2021 roku.
      Wielkimi wygranymi są tutaj ADM, Cray i Intel. Już teraz wiadomo, że firmy te będą tworzyły trzy eksaskalowe maszyny, których powstanie sfinansuje Departament Energii. Cray, należący obecnie do HP Enterprise, będzie odpowiedzialny za połączenia we wszystkich wspomnianych superkomputerach. Maszyna eksaskalowa to superkomputery zdolny do wykonania 1 eksaflopsa czyli 1 tryliona (1018) operacji zmiennoprzecinkowych na sekundę.
      Budową superkomputera Frontier, który stanie w Oak Ridge National Laboratory, zajmą się AMD i Cray. AMD dostarczy CPU i GPU. Zintegrowanie całości będzie zadaniem Craya. Z kolei maszyna Aurora, przeznaczona dla Argonne National Laboratory, ma zostać zbudowana przez Intela (GPU i GPU) oraz Craya (integracja). Trzeci z planowanych w najbliższych latach amerykańskich systemów eksaskalowych – El Capitán – ma zostać zbudowany przez Craya. Obecnie nie wiadomo, kto dostarczy doń procesorów.
      Na pierwszy rzut oka widać, że brakuje w tym towarzystwie dwóch potentatów rynku HPC (High Performance Computing) – IBM-a i Nvidii. Jednak jeśli nawet żadna z tych firm nie będzie zaangażowana w budowę El Capitana, to z pewnością nie zabraknie dla nich pracy na rynku superkomputerów.
      Jeszcze przed SC19 odbyła się konferencja zorganizowana przez Intela, na której koncern mówił o kościach, które rozwija na potrzeby Aurory. Wiemy, że zostaną one wykonane w 7-nanometrowym procesie. Nazwa kodowa procesora Xeon dla Aurory to Sapphire Rapids. Jednak uczestników konferencji bardziej zainteresował przyszły intelowski GPU – Xe HPC o nazwie kodowej Ponte Vecchio.
      Ponte Vecchio będzie miał wersję specjalnie na rynek HPC. Głównym zadaniem układów GPU przeznaczonych do zastosowań HPC jest przetwarzanie liczb zmiennoprzecinkowych pojedynczej i podwójnej precyzji, jednak nowy GPU Intela ma również wspierać formaty popularne na polu sztucznej inteligencji, takie jak INT8, BFloat16 i FP16. Intel wykorzysta również technologię pakowania układów EMIB, która pozwala na podłączenie GPU do interfejsu HBM (High Bandwidth Memory). Ponadto w Ponte Vecchio znajdziemy technologię Foveros 3D pozwalającą składać procesor na podobieństwo klocków i interkonekt XE Memory Fabric (XEMF), przez co CPU i GPU mają mieć dostęp do superszybkiej pamięci zwanej Rambo cache'em. Dzięki dużej ilości cache'u ma poprawić się skalowalność tak ambitnych projektów jak superkompuery eksaskalowe.
      Na potrzeby tych rozwiązań intel tworzy też nowe oprogramowanie oparte na nowym języku programowania Data Parallel C++ (DPC++). Bazuje on na standardzie SYCL z dodanymi przez Intela specyficznymi rozszerzeniami.
      Pojedynczy węzeł Aurory będzie zawierał 2 układy Xeon Sapphire Rapids oraz 6 Ponte Vecchio HPC GPU. Trzeba zauważyć, że Intel wziął na siebie bardzo ambitne zadanie. W ciągu dwóch lat musi bowiem mieć gotowe i przetestowane nowe oprogramowanie, nowy GPU wykonany według nowego procesu produkcyjnego i nowej technologii pakowania.
      W lepszej sytuacji jest AMD. Maszyna Frontier będzie korzystała z EPYC CPU i Radeon Instinct GPU. Firma już produkuje te kości. Obecnie pracuje nad ROCM, czyli odpowiedzią na CUDA Nvidii. ROCM będzie wspierało Tensor Flow i PyTorch. Obecnie AMD bardzo mocno inwestuje w rozwój tej platformy, a podczas SC19 przedstawiciele firmy zapowiedzieli poszerzenie ofery procesorów EPYC.
      Co jeszcze wiemy o przyszłych amerykańskich eksaskalowych komputerach?
      Budowana przez Craya maszyna El Capitán będzie stała z Lawrence Livermore National Laboratory. Jej maksymalna wydajność ma przekraczać 1,5 eksaflopsa, a komputer – wyposażony w zaawansowane możliwości modelowania, symulacji i sztucznej inteligencji bazujące na architekturze Shasta – będzie wykorzystywany do zadań związanych z bezpieczeństwem nuklearnym. Na jego zbudowanie przeznaczono 600 milionów USD, a maszyna ma zostać dostarczona pod koniec 2022 roku.
      Tworzony przez AMD i Craya Frontier ma ruszyć już w 2021 roku, a jego wydajność ma być wyższa niż 1,5 eksafolopsa. Superkomputer będzie wykorzystywany do wielu zadań związanych m.in. z badaniami nad rozpadem atomowym, badaniami klimatu, zostanie zaprzęgnięty do pracy w dziedzinie biomedycyny i inżynierii materiałowej. Również i on ma kosztować około 600 milionów USD.
      Jeśli zaś chodzi o Aurorę, to będzie się on zajmował badaniami nad fuzją jądrową, poszukiwał leków na nowotwory, wykorzystany zostanie przez chemików do badania procesów katalitycznych, wspomoże też nauki z dziedziny neurobiologii czy astrofizyki. Również i na tę maszynę przeznaczono 600 milionów dolarów. Jej wydajność ma przekraczać 1 eksaflops, a komputer ma być gotowy w 2021 roku.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Do 2020 r. naukowcy z Akademii Górniczo-Hutniczej w Krakowie zbudują, razem z partnerami europejskimi, superkomputer. Będzie on 10 razy szybszy niż obecnie działający najszybszy komputer w Europie – poinformowało Ministerstwo Nauki i Szkolnictwa Wyższego.
      Ów superkomputer trafi do jednego z ośmiu ośrodków obliczeń superkomputerowych, których lokalizację ogłosiła w piątek Komisja Europejska. Europejskie superkomputery będą wspierać naukowców, przemysł i przedsiębiorstwa w opracowywaniu nowych zastosowań w wielu dziedzinach – od tworzenia leków i nowych materiałów, po walkę ze zmianą klimatu.
      Prace odbędą się w ramach Europejskiego Wspólnego Przedsięwzięcia w dziedzinie Obliczeń Wielkiej Skali (EuroHPC Joint Undertaking).
      Deklarację o przystąpieniu Polski do EuroHPC podpisał w 2018 wicepremier, minister nauki i szkolnictwa wyższego Jarosław Gowin.
      Jak podało Ministerstwo Nauki i Szkolnictwa Wyższego (MNiSW), Polska jest jednym z ośmiu krajów, które wchodzi w skład konsorcjum LUMI (Large Unified Modern Infrastructure). Razem z Finlandią, Belgią, Czechami, Danią, Norwegią, Szwecją i Szwajcarią weźmie udział w opracowaniu, instalacji i udostępnieniu naukowcom superkomputera przed-eksaskalowego. Instalacja planowana jest już w roku 2020 i odbędzie się w fińskim centrum danych w Kajaani.
      Polskę w konsorcjum LUMI reprezentuje Akademickie Centrum Komputerowe Cyfronet Akademii Górniczo-Hutniczej w Krakowie, operator najszybszego w Polsce superkomputera Prometheus.
      Planowana moc obliczeniowa superkomputera będzie ok. 10 razy większa od szwajcarskiego Piz Daint – najszybszego superkomputera działającego obecnie w Europie. Dzięki temu europejscy naukowcy i przedsiębiorcy zyskają narzędzie dostępne do tej pory jedynie światowym liderom w zakresie obliczeń wielkiej skali: USA, Japonii i Chin - poinformował resort nauki.
      Dostęp do superkomputera będzie realizowany tradycyjnie, jak również poprzez chmurę.
      Całkowity budżet systemu wynosi ponad 207 mln euro. Połowa tej kwoty pochodzi ze środków Komisji Europejskiej, a połowa od państw tworzących konsorcjum. Ministerstwo Nauki i Szkolnictwa Wyższego przekaże na ten cel 5 mln euro. To wsparcie zapewni polskim naukowcom - zarówno akademickim, jak i tym z przemysłu - bezpośredni dostęp do najszybszych europejskich zasobów obliczeniowych – podkreśla resort nauki.
      Jak przypomina, obecnie polscy naukowcy korzystają z istniejących superkomputerów m.in. do badania sztucznych liści grafenowych odtwarzających proces fotosyntezy; komputerowego projektowania leków, modelowania enzymów i wydajnych katalizatorów, symulacji cząstek elementarnych; analizy fal grawitacyjnych.
      Obliczenia wielkiej skali umożliwią przeprowadzanie wielokrotnie bardziej zaawansowanych badań niż obecnie. Nowe możliwości pozwolą na dokonywanie przełomów w nauce. Przekroczenie istniejących ograniczeń przyczyni się do nowych osiągnięć w zakresie chemii, inżynierii materiałowej, biotechnologii, fizyki czy medycyny - wskazuje resort nauki.
      Według MNiSW moc obliczeniowa superkomputera z centrum obliczeniowego z Kajaani pozwoli podjąć również takie problemy badawcze, jak prognozowanie zmian klimatycznych, rozwój sztucznej inteligencji, produkcję czystej energii; wspomoże też badania w zakresie medycyny spersonalizowanej.
      Superkomputer będzie składać się z trzech partycji: akceleracyjnej, opartej o procesory graficzne ogólnego przeznaczenia GPU, klasycznej, zbudowanej z tradycyjnych procesorów CPU, partycji do analizy danych.
      Planowana moc obliczeniowa superkomputera EuroHPC to ok. 200 PFlops, czyli 0,2 EFlops. Na potrzeby prowadzenia obliczeń superkomputer będzie wyposażony w zasoby pamięci masowych o pojemności ponad 60 PB, w tym szybkie pamięci typu flash o przepustowości ponad 1TB/s.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Superkomputer Watson, który pokonał w teleturnieju Va Banque ludzkich arcymistrzów - Kena Jenningsa i Brada Ruttera - stanie do walki z... trolami patentowymi.
      IBM wyposażył komputer w oprogramowanie o nazwie Strategic IP Insight Platform (SIIP), dzięki któremu maszyna będzie mogła zapoznawać się z recenzowanymi pismami specjalistycznymi, bazami danych patentów, będzie katalogowała przedsiębiorstwa, analizowała ich własność intelektualną i produkty. IBM ma nadzieję, że dzięki temu będzie można łatwo wyłapać patenty, które nie powinny być przyznane, gdyż już wcześniej używano tego typu rozwiązań.
      Teoretycznie patenty powinny być przyznawane tylko na rozwiązania nowe i nieoczywiste. Jednak samo zdefiniowanie tego, co jest rozwiązaniem „oczywistym" jest bardzo trudne. Jeśli zaś weźmiemy też pod uwagę błędy popełniane przez urzędników, nawał pracy, zaniechania, niemożność dotarcia do wszelkich danych i inne czynniki, stanie się jasnym, jak łatwo można przyznać patent na rozwiązanie, które istniało już wcześniej.
      Tutaj ma właśnie wkroczyć Watson. O ile bowiem superkomputer nie rozstrzygnie sporów wokół tego, które rozwiązanie jest oczywiste, a które nie, to może pomóc w stwierdzeniu, czy jakiś wynalazek był już wcześniej używany.
      Podczas pokazu Watsona wyposażono w opis 4,7 miliona patentów oraz 11 milionów artykułów naukowych z lat 1976-2000. Watson na podstawie tekstu i grafik wyodrębniał nowe związki chemiczne, odnajdował słowa-klucze, nazwiska autorów i nazwy firm.
      Na podstawie takiej analizy Watson wyodrębnił 2,5 miliona związków chemicznych, które uznał za unikatowe. Dla każdego z nich zidentyfikował następnie najwcześniejszy patent.
      IBM udostępnił utworzoną przez Watsona bazę amerykańskiemu NIH (National Institutes of Health), zezwalając każdemu naukowcowi, niezależnie od miejsca zamieszkania, na bezpłatne korzystanie z bazy.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...