Jump to content
Forum Kopalni Wiedzy
  • ×   Pasted as rich text.   Paste as plain text instead

      Only 75 emoji are allowed.

    ×   Your link has been automatically embedded.   Display as a link instead

    ×   Your previous content has been restored.   Clear editor

    ×   You cannot paste images directly. Upload or insert images from URL.

  • Similar Content

    • By KopalniaWiedzy.pl
      W mediach pojawiły się informacje, z których wynika, że podczas targów CES 2020 Intel zaprezentuje technologię, która pozwoli na pozbycie się wentylatorów z notebooków. Takie rozwiązanie pozwoliłoby na budowanie lżejszych i cieńszych urządzeń. Podobno na targach mają zostać zaprezentowane gotowe notebooki z technologią Intela.
      Część mediów pisze, że nowatorskie rozwiązanie to połączenie technologii komory parowej (vapor chamber) i grafitu. W technologii komory parowej płynne chłodziwo paruje na gorącej powierzchni, którą ma schłodzić, unosi się do góry, oddaje ciepło i ulega ponownej kondensacji. Rozwiązanie takie od lat stosuje się np. w kartach graficznych, jednak zawsze w połączeniu z wentylatorem, odprowadzającym ciepło z powierzchni, do której jest ono oddawane przez chłodziwo. Podobno Intel był w stanie pozbyć się wentylatora, dzięki poprawieniu o 25–30 procent rozpraszania ciepła.
      Obecnie w notebookach systemy chłodzące umieszcza się pomiędzy klawiaturą a dolną częścią komputera, gdzie znajduje się większość komponentów wytwarzającyh ciepło. Intel miał ponoć zastąpić systemy chłodzące komorą parową, którą połączył z grafitową płachtą umieszczoną za ekranem, co pozwoliło na zwiększenie powierzchni wymiany ciepła.
      Z dotychczasowych doniesień wynika również, że nowy projekt Intela może być stosowany w urządzeniach, które można otworzyć maksymalnie pod kątem 180 stopni, nie znajdzie więc zastosowania w maszynach z obracanym ekranem typu convertible. Podobno jednak niektórzy producenci takich urządzeń donoszą, że wstępnie poradzili sobie z tym problemem i w przyszłości nowa technologia trafi też do laptopów z obracanymi ekranami.
      Niektórzy komentatorzy nie wykluczają, że Intel wykorzystał rozwiązania z technologii k-Core firmy Boyd, która wykorzystuje grafit do chłodzenia elektroniki w przemyśle satelitarnym, lotniczym i wojskowym.
      Obecnie na rynku są dostępne przenośne komputery bez wentylatorów, są to jednak zwykle ultrabooki czy mini laptopy. Pełnowymiarowych maszyn jest jak na lekarstwo i nie  są to rozwiązania o najmocniejszych konfiguracjach sprzętowych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Używamy coraz więcej smartfonów, samochodów elektrycznych i innych urządzeń, wymagających stosowania akumulatorów. To jednak oznacza coraz większe zapotrzebowanie na metale ciężkie, które stanowią olbrzymie zagrożenie zarówno dla ludzkiego zdrowia, jak i środowiska naturalnego. Szczególne kontrowersje budzi wykorzystywanie kobaltu, pozyskiwanego głównie w centralnej Afryce. Z jego wydobyciem wiąże się olbrzymie niszczenie środowiska naturalnego, niewolnictwo, morderstwa i gwałty.
      Naukowcy z IBM Research wykorzystali trzy opracowane przez siebie materiały, które nigdy nie były jeszcze używane w akumulatorach i stworzyli w ten sposób urządzenie, które nie wykorzystuje ani metali ciężkich, ani innych materiałów, z wydobyciem których wiąże się popełnianie przestępstw na ludziach czy środowisku naturalnym.
      Wspomniane materiały można pozyskać z wody morskiej, co jest metodą mniej szkodliwą dla środowiska niż wydobywanie metali z ziemi. Podczas wstępnych testów nowego akumulatora stwierdzono, że można go zoptymalizować tak, by przewyższał akumulatory litowo-jonowe w wielu kategoriach, takich jak – niższa cena, krótszy czas ładowania, wyższa moc i gęstość energetyczna, lepsza wydajność energetyczna oraz mniejsza palność.
      Opracowana przez Battery Lab katoda nie potrzebuje kobaltu i niklu, a akumulator zawiera bezpieczny elektrolit o wysokiej temperaturze zapłonu. Ponadto podczas testów okazało się, że w czasie ładowania nie powstają dendryty, które są poważnym problemem w akumulatorach litowo-jonowych, gdyż mogą doprowadzić do spięcia i pożaru.
      Dotychczas przeprowadzone testy pokazują, że odpowiednio skonfigurowany nowy akumulator można naładować do 80% w czasie krótszym niż 5 minut. W połączeniu ze stosunkowo niskim kosztem pozyskania materiałów, możemy mieć do czynienia z tanim akumulatorem, który można szybko naładować. Inżynierowie IBM-a obliczają, że w szczególnie wymagających zastosowaniach, jak na przykład lotnictwo, akumulator można skonfigurować tak, by jego gęstość energetyczna była większa niż 10 000 W/L. Ponadto akumulator wytrzymuje wiele cykli ładowania/rozładowania, dzięki czemu może być wykorzystywany w sieciach energetycznych, gdzie wymagana jest długa i stabilna praca.
      Podsumowując, początkowe prace pokazały, że IBM Research opracował tani akumulator, w którym nie są wykorzystywane kobalt, nikiel i inne metale ciężkie, który można naładować do 80% w czasie krótszym niż 5 minut, którego gęstość mocy może przekraczać 10 000 W/L, a gęstość energii jest wyższa od 800 Wh/L, którego wydajność energetyczna przekracza 90% i którego elektrolit jest mniej palny.
      Teraz IBM Research wspólnie z Mercedes-Benz Research, Central Glass i Sidusem prowadzi badania, które mają na celu dalsze rozwijanie tej technologii, opracowanie infrastruktury potrzebnej do produkcji nowych akumulatorów i ich komercjalizacji.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Tegoroczna International Conference for Hight Performance Computing (SC19) nie przyniosła żadnych sensacyjnych informacji na temat TOP500, listy najpotężniejszych komputerów na świecie. Znacznie bardziej interesujące było to, co mówiono o systemach eksaskalowych, których budowa ma rozpocząć się w 2021 roku.
      Wielkimi wygranymi są tutaj ADM, Cray i Intel. Już teraz wiadomo, że firmy te będą tworzyły trzy eksaskalowe maszyny, których powstanie sfinansuje Departament Energii. Cray, należący obecnie do HP Enterprise, będzie odpowiedzialny za połączenia we wszystkich wspomnianych superkomputerach. Maszyna eksaskalowa to superkomputery zdolny do wykonania 1 eksaflopsa czyli 1 tryliona (1018) operacji zmiennoprzecinkowych na sekundę.
      Budową superkomputera Frontier, który stanie w Oak Ridge National Laboratory, zajmą się AMD i Cray. AMD dostarczy CPU i GPU. Zintegrowanie całości będzie zadaniem Craya. Z kolei maszyna Aurora, przeznaczona dla Argonne National Laboratory, ma zostać zbudowana przez Intela (GPU i GPU) oraz Craya (integracja). Trzeci z planowanych w najbliższych latach amerykańskich systemów eksaskalowych – El Capitán – ma zostać zbudowany przez Craya. Obecnie nie wiadomo, kto dostarczy doń procesorów.
      Na pierwszy rzut oka widać, że brakuje w tym towarzystwie dwóch potentatów rynku HPC (High Performance Computing) – IBM-a i Nvidii. Jednak jeśli nawet żadna z tych firm nie będzie zaangażowana w budowę El Capitana, to z pewnością nie zabraknie dla nich pracy na rynku superkomputerów.
      Jeszcze przed SC19 odbyła się konferencja zorganizowana przez Intela, na której koncern mówił o kościach, które rozwija na potrzeby Aurory. Wiemy, że zostaną one wykonane w 7-nanometrowym procesie. Nazwa kodowa procesora Xeon dla Aurory to Sapphire Rapids. Jednak uczestników konferencji bardziej zainteresował przyszły intelowski GPU – Xe HPC o nazwie kodowej Ponte Vecchio.
      Ponte Vecchio będzie miał wersję specjalnie na rynek HPC. Głównym zadaniem układów GPU przeznaczonych do zastosowań HPC jest przetwarzanie liczb zmiennoprzecinkowych pojedynczej i podwójnej precyzji, jednak nowy GPU Intela ma również wspierać formaty popularne na polu sztucznej inteligencji, takie jak INT8, BFloat16 i FP16. Intel wykorzysta również technologię pakowania układów EMIB, która pozwala na podłączenie GPU do interfejsu HBM (High Bandwidth Memory). Ponadto w Ponte Vecchio znajdziemy technologię Foveros 3D pozwalającą składać procesor na podobieństwo klocków i interkonekt XE Memory Fabric (XEMF), przez co CPU i GPU mają mieć dostęp do superszybkiej pamięci zwanej Rambo cache'em. Dzięki dużej ilości cache'u ma poprawić się skalowalność tak ambitnych projektów jak superkompuery eksaskalowe.
      Na potrzeby tych rozwiązań intel tworzy też nowe oprogramowanie oparte na nowym języku programowania Data Parallel C++ (DPC++). Bazuje on na standardzie SYCL z dodanymi przez Intela specyficznymi rozszerzeniami.
      Pojedynczy węzeł Aurory będzie zawierał 2 układy Xeon Sapphire Rapids oraz 6 Ponte Vecchio HPC GPU. Trzeba zauważyć, że Intel wziął na siebie bardzo ambitne zadanie. W ciągu dwóch lat musi bowiem mieć gotowe i przetestowane nowe oprogramowanie, nowy GPU wykonany według nowego procesu produkcyjnego i nowej technologii pakowania.
      W lepszej sytuacji jest AMD. Maszyna Frontier będzie korzystała z EPYC CPU i Radeon Instinct GPU. Firma już produkuje te kości. Obecnie pracuje nad ROCM, czyli odpowiedzią na CUDA Nvidii. ROCM będzie wspierało Tensor Flow i PyTorch. Obecnie AMD bardzo mocno inwestuje w rozwój tej platformy, a podczas SC19 przedstawiciele firmy zapowiedzieli poszerzenie ofery procesorów EPYC.
      Co jeszcze wiemy o przyszłych amerykańskich eksaskalowych komputerach?
      Budowana przez Craya maszyna El Capitán będzie stała z Lawrence Livermore National Laboratory. Jej maksymalna wydajność ma przekraczać 1,5 eksaflopsa, a komputer – wyposażony w zaawansowane możliwości modelowania, symulacji i sztucznej inteligencji bazujące na architekturze Shasta – będzie wykorzystywany do zadań związanych z bezpieczeństwem nuklearnym. Na jego zbudowanie przeznaczono 600 milionów USD, a maszyna ma zostać dostarczona pod koniec 2022 roku.
      Tworzony przez AMD i Craya Frontier ma ruszyć już w 2021 roku, a jego wydajność ma być wyższa niż 1,5 eksafolopsa. Superkomputer będzie wykorzystywany do wielu zadań związanych m.in. z badaniami nad rozpadem atomowym, badaniami klimatu, zostanie zaprzęgnięty do pracy w dziedzinie biomedycyny i inżynierii materiałowej. Również i on ma kosztować około 600 milionów USD.
      Jeśli zaś chodzi o Aurorę, to będzie się on zajmował badaniami nad fuzją jądrową, poszukiwał leków na nowotwory, wykorzystany zostanie przez chemików do badania procesów katalitycznych, wspomoże też nauki z dziedziny neurobiologii czy astrofizyki. Również i na tę maszynę przeznaczono 600 milionów dolarów. Jej wydajność ma przekraczać 1 eksaflops, a komputer ma być gotowy w 2021 roku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przed tygodniem TSMC ogłosiło, że wykorzystywana przezeń technologia 7nm plus (N7+) jest pierwszym komercyjnie dostępnym wdrożeniem technologii EUV (litografii w ekstremalnie dalekim ultrafiolecie). Tym samym tajwański gigant ustawił się w roli światowego lidera EUV. I wielu analityków to potwierdza.
      TSMC jest ewidentnym liderem na rynku EUV, zarówno jeśli chodzi o zamówione i już wykorzystywane narzędzia, liczbę plastrów wytwarzanych w technologii EVU jak i zintegrowania EUV w swoich planach produkcyjnych, mówi Jim Fontanelli, analityk w firmie Arete Ressearc.
      Obecnie najnowocześniejszą z wykorzystywanych technologii jest 7+ z trójwarstwową maską EUV. W drugiej połowie połowie przyszłego roku TSMC ma zamiar wdrożyć 5 nm z maską 15-warstwową, a pod koniec 2020 roku zadebiutuje technologia 6 nm, w której wykorzystana zostanie 4-warstwowa maska EUV, twierdzi Fontanelli.
      Zdaniem analityka, obecnie największym odbiorcą plastrów 7+ produkowanych przez TSMC jest AMD i ma to związek z ograniczoną dostępnością produktu. Jednak przy przejściu na węzeł 5nm pozycję kluczowego klienta w tej technologii powinno zyskać Huawei, a na drugim miejscu znajdzie się Apple. Obie firmy chcą bowiem wykorzystać możliwości związane z miniaturyzacją, mniejszym poborem mocy oraz poprawieniem wydajności. Największym odbiorcą plastrów 6nm ma zostać, również w zwiazku z ograniczoną podażą 7nm, MediaTek.
      Wdrożenie EUV jest bardzo trudne. Dość wspomnieć, że technologia ta wymaga źródła światła o mocy 250W. Tymczasem w powszechnie obecnie wykorzystywanej litografii zanurzeniowej wykorzystuje się moc 90W. A kolejna generacja EUV, high-NA EUV będzie wymagała 500-watowego źródła.
      EUV oferuje jednak tak wiele zalet, że warto przebrnąć trudy jej wdrożenia. Przede wszystkim pozwala zaś skrócić czas produkcji i uniknąć wielokrotnego naświetlania plastra.
      Technologia ta jest jednak na tyle nowa, kosztowna i sprawia tak dużo problemów, że obecnie jedynie trzech światowych producentów – TSMC, Samsung i Intel – ma w planach jej wdrożenie do produkcji. Intel jest w tych pracach najmniej zaawansowany. Intel wydaje się całkowicie zaangażowany w EUV 7nm, którą wdroży w 2021 roku. Liczba warstw w masce będzie tam mniejsza niż liczba warstw w węźle 5nm TSMC. Ma to związek w różnicach wymagań technologicznych. Prawdopodobnie warstw tych będzie mniej niż 10, mówi Fontanelli.
      Fakt, dla którego Fontanelli w dużej mierze opiera się na domysłach, dobrze wyjaśniają słowa innego analityka, Dana Hutchesona z VLSI Reseearch. Intel to największa zagadka spośród tych trzech producentów, gdyż nie tworzy podzespołów na zamówienie, zatem nie ma powodu, dla którego miałby zdradzać, co robi. Ponadto warto pamiętać, że Intel zawsze wdrażał narzędzia litograficzne dla kolejnych węzłów wcześniej, niż ktokolwiek inny. Ponadto od lat najbardziej angażuje się w badania nad EUF. Nie ma też marketingowego powodu, by na bieżąco informować o postępach w EUF, dlatego też sądzę, że nic nie powiedzą, zanim nie będą pewni, że są gotowi do rozpoczęcia produkcji.
      Początkowo Intel miał zamiar rozpocząć produkcję 7-nanometrowych układów w 2017 roku, jednak w związku z opóźnieniami przy węzłach 14- i 10-nanometrowym plany te przesunięto o cztery lata. W bieżącym roku menedżerowie Intela zapowiedzieli, że procesy produkcyjne 7-nanometrowych układów tej firmy będą równie lub bardziej wydajne niż procesy produkcyjne 5-nanometrowych kości TSMC.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie z intelowskiej grupy Strategic Offensive Research & Mitigation (STORM) opublikowali pracę naukową opisującą nowy rodzaj pamięci dla procesorów. Pamięć taka miałaby zapobiegać atakom side-channel wykorzystującym mechanizm wykonywania spekulatywnego, w tym atakom na błędy klasy Spectre.
      Wymienienie w tym kontekście dziury Spectre nie jest przypadkiem. Zespół STORM powstał bowiem po tym, jak Intel został poinformowany przez Google'a i niezależnych badaczy o istnieniu dziur Meltdown i Spectre. Przypomnijmy, że są to błędy w architekturze procesorów. Meltdown występuje niemal wyłącznie w procesorach Intela, Spectre dotyczy wszystkich procesorów wyprodukowanych przed rokiem 2019, które wykorzystują mechanizm przewidywania rozgałęzień. Dziura Spectre ma większy wpływ na procesory Intela niż innych producentów.
      Główny rywal Intela, AMD, w dużej mierze poradził sobie z atakami typu Spectre zmieniając architekturę procesorów Ryzen i Epyc. Intel jak dotąd walczy ze Spectre za pomocą poprawiania oprogramowania. To dlatego – jak wykazały testy przeprowadzone przez witrynę Phoronix – średni spadek wydajności procesorów Intela spowodowany zabezpieczeniami przed Spectre jest aż 5-krotnie większy niż w przypadku procesorów AMD.
      Inżynierowie ze STORM opisali nowy rodzaj pamięci dla procesorów, którą nazwali Speculative-Access Protected Memory (SAPM). Ma być ona odporna na obecne i przyszłe ataki typu Spectre i podobne. Członkowie grupy STORM mówią, że większość ataków typu Spectre przeprowadza w tle te same działania, a SAPM ma domyślnie blokować takie operacje, co zapobiegnie obecnym i ewentualnym przyszłym atakom.
      Jak przyznają badacze Intela, zaimplementowanie pamięci SAPM negatywnie wpłynie na wydajność procesorów tej firmy, jednak wpływ ten będzie mniejszy niż wpływ obecnie stosowanych łatek programowych. Mimo że spadek wydajności dla każdego przypadku dostępu do pamięci SAPM jest dość duży, to operacje tego typu będą stanowiły niewielką część operacji związanych z wykonaniem oprogramowania, zatem całkowity koszt będzie niski i potencjalnie mniejszy niż spadek wydajności spowodowany obecnie stosowanymi rozwiązaniami, czytamy w opublikowanym dokumencie.
      SAPM może zostać zaimplementowany zarówno na poziomie adresu fizycznego jak i wirtualnego. W tym drugim przypadku pamięć byłaby kontrolowana z poziomu systemu operacyjnego. Jeśli zaś ten zostałby skompromitowany, a tak się często dzieje, SAPM nie będzie chroniła przed atakiem.
      W opublikowanej pracy czytamy, że jest to praca teoretyczna, dotycząca możliwych implementacji, co oznacza, że całościowa koncepcja nie jest jeszcze gotowa i jeśli w ogóle SAPM powstanie, będzie wymagała długotrwałych szczegółowych testów.

      « powrót do artykułu
×
×
  • Create New...