Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Nowa technologia chłodzenia pozwoli na pozbycie się wentylatorów z notebooków?

Recommended Posts

W mediach pojawiły się informacje, z których wynika, że podczas targów CES 2020 Intel zaprezentuje technologię, która pozwoli na pozbycie się wentylatorów z notebooków. Takie rozwiązanie pozwoliłoby na budowanie lżejszych i cieńszych urządzeń. Podobno na targach mają zostać zaprezentowane gotowe notebooki z technologią Intela.

Część mediów pisze, że nowatorskie rozwiązanie to połączenie technologii komory parowej (vapor chamber) i grafitu. W technologii komory parowej płynne chłodziwo paruje na gorącej powierzchni, którą ma schłodzić, unosi się do góry, oddaje ciepło i ulega ponownej kondensacji. Rozwiązanie takie od lat stosuje się np. w kartach graficznych, jednak zawsze w połączeniu z wentylatorem, odprowadzającym ciepło z powierzchni, do której jest ono oddawane przez chłodziwo. Podobno Intel był w stanie pozbyć się wentylatora, dzięki poprawieniu o 25–30 procent rozpraszania ciepła.

Obecnie w notebookach systemy chłodzące umieszcza się pomiędzy klawiaturą a dolną częścią komputera, gdzie znajduje się większość komponentów wytwarzającyh ciepło. Intel miał ponoć zastąpić systemy chłodzące komorą parową, którą połączył z grafitową płachtą umieszczoną za ekranem, co pozwoliło na zwiększenie powierzchni wymiany ciepła.

Z dotychczasowych doniesień wynika również, że nowy projekt Intela może być stosowany w urządzeniach, które można otworzyć maksymalnie pod kątem 180 stopni, nie znajdzie więc zastosowania w maszynach z obracanym ekranem typu convertible. Podobno jednak niektórzy producenci takich urządzeń donoszą, że wstępnie poradzili sobie z tym problemem i w przyszłości nowa technologia trafi też do laptopów z obracanymi ekranami.

Niektórzy komentatorzy nie wykluczają, że Intel wykorzystał rozwiązania z technologii k-Core firmy Boyd, która wykorzystuje grafit do chłodzenia elektroniki w przemyśle satelitarnym, lotniczym i wojskowym.

Obecnie na rynku są dostępne przenośne komputery bez wentylatorów, są to jednak zwykle ultrabooki czy mini laptopy. Pełnowymiarowych maszyn jest jak na lekarstwo i nie  są to rozwiązania o najmocniejszych konfiguracjach sprzętowych.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Apple już dawno opracował technologię wentylatorów pacebo, które instaluje w swoich MacBook Air w taki sposób, że nie dmuchają na radiator CPU. Za to ich głównym zdaniem jest generowanie szumu, który pozwala ukoić nerwy użytkowników drogich i przegrzewających się, ale kompaktowych urządzeń :)

 

Edited by cyjanobakteria
  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Ale co ty chcesz od takich "tanich" zabawek produkowanych przez firmę sadowniczą? Jak się zepsuje to wyrzucasz i kupujesz nową za "grosze", i cieszysz się jak dziecko z nowego "technologicznego" ogryzka!

Edited by Sławko

Share this post


Link to post
Share on other sites

Z doświadczenia i obserwacji. Nie będzie nowych, cichych, pasywnych systemów chłodzenia, przynajmniej powszechnie. Już dziś nie byłoby problemu ze schłodzeniem komponentów, gdyby komputerów nie budowali księgowi. Inżynier daje minimum chłodzenia, księgowy tnie to jeszcze o połowę i w takim stanie trafia na rynek. To samo będzie tutaj. Po prostu otrzymamy mniejszy (tańszy, okrojony) system chłodzenia oraz jakiś szajsowaty wiatrak wykręcony na 5 kHz, wyjący jak potępieniec i wszystko zostanie po staremu. Ops, przepraszam. Będą nowe ulotki, zachwalające nowy, rewelacyjny i superwydajny system chłodzenia. I będą nowe ceny.

 

BTW. Mam telefon, który wg producenta, posiada płachtę grafenową, rozpraszającą ciepło po całej powierzchni obudowy. Ile w tym prawdy? Nie wiem, ale mimo intensywnego katowania, nie udało mi się go mocno przegrzać, a nagrzewa się faktycznie dość równomiernie. Telefon ma blisko 2 lata, gdzie więc ta rewolucja Intela?

Share this post


Link to post
Share on other sites

CPU w telefonie generuje mniej ciepła, więc łatwiej jest je odprowadzić i rozproszyć. Po za tym to może być podobna technologia z wyjątkiem tego, że telefon nie ma otwieranego ekranu. Podejrzewam, że wymiana ciepła z panelem za ekranem, to była największa przeszkoda.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites

Pewnie takie rozwiązania sprawdziły by się w wykastrowanych, tanich modelach z okrojonymi CPU,GPU. Tylka czy takie komputery nadal będą tanie z takim chłodzeniem?

A 2 kwestia to skazanie wydajności pasywnego chłodzenia od temperatury otoczenia. Upalnym latem komp może po prostu nie włączyć się gdy tymczasem klasyczny model po prostu zwiększy sobie obroty wentylatorów.

Share this post


Link to post
Share on other sites
W dniu 30.12.2019 o 23:52, cyjanobakteria napisał:

Za to ich głównym zdaniem jest generowanie szumu, który pozwala ukoić nerwy użytkowników

Apple zawsze był liderem innowacyjności :)

Mnie ciekawi jak będzie transferowane ciepło przez zgięcie między klawiaturą, a ekranem. 

Share this post


Link to post
Share on other sites
23 godziny temu, M61 napisał:

Mnie ciekawi jak będzie transferowane ciepło przez zgięcie między klawiaturą, a ekranem. 

jak to jak... Przez kawałek elastycznego łącznika, precyzyjnie zaprojektowanego żeby rozpadł się po 2 latach gwarancji :D

 

Share this post


Link to post
Share on other sites
Posted (edited)

No właśnie. Elastyczny łącznik, lub nawet szczelny zawias na heat-pipe nie brzmi jak coś szczególnie trudnego do wykonania. Może to być nawet całkiem trwałe.
Pozostaje kwestia tego, czy będą chcieli by to było trwałe, ale Intel to nie Apple.

Poczekamy, zobaczymy.

Edited by pogo

Share this post


Link to post
Share on other sites
Posted (edited)

Widzę, że @tempik jest wyjątkowo negatywnie nastawiony do branży ;) Ja mam bardzo dobre doświadczenia ze sprzętem elektronicznym. Nie mogę sobie w tej chwili przypomnieć żadnego sprzętu zakupionego w ciągu ostatnich 15 lat, który by padł po 2 latach, czy w ogóle padł tak, żeby nie można naprawić w łatwy sposób.

Mam nadal sprawne wszystkie stare telefony, z których oczywiście już nie korzystam, kilkuletni tablet, trochę nowszy telefon, aparat cyfrowy, małe kamerki, PC złożony samodzielnie kilka lat temu. Wszystko jest nadal sprawne, chociaż niektóre miały drobne usterki, które samodzielnie naprawiłem, np. przełożyłem kamerę w telefonie niedawno. Telefon kwalifikuje się do wymiany, ale to ze względu na software i brak wsparcia. Laptop w pracy chodzi 5 lat, przy czym bateria jest do wymiany. Mój pierwszy laptop, który ma 15 lat nadal jest sprawny, chociaż aku już dawno wywaliłem. Trzymam go tylko jako pamiątkę. Przypomniało mi się, że wymieniłem po 5 latach matrycę LCD i wcześniej dołożyłem pamięci, więc nie liczy się jako bezawaryjny, ale wymiany dokonałem sam i nie było to trudne. To nie była wyższa szkoła jazdy, jak reballing czy przelutowywanie układów na płycie, których bym się nie podjął ;)

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites

Póki co, mam podobne doświadczenia ze sprzętem. Stare karty graficzne, telefony i inne drobne sprzęty przewalają się w szafach. Wiem, że zakrawa to na zbieractwo, ale może trzymam je na gorsze czasy lub z powodów sentymentalnych :). Np. Taki PowerColor HD3870 z miedzianym radiatorem, obecnie żadkość (miedź w żeberkach radiatora) albo Nokia 3310 i jest tego znacznie więcej. 

Też tak pomyślałem, jak @tempik, ale nie chciałem nic sugerować. Jest jeszcze opcja przenieść cieplejsze elementy do wyświetlacza i go nieco pogrubić, coś jak laptop konwertowalny. 

Share this post


Link to post
Share on other sites

Mam podobnie jak Wy. Generalnie nie narzekam na jakość i trwałość elektroniki. Ale takie rzeczy jak: bardzo krótki czas wsparcia, montowanie na stałe baterii,klejenie wszystkiego co się da, brak kompatybilności wstecznej, tylko mnie utwierdzają w przekonaniu że producenci dążą do skrócenia cyklu życia produktu jak tylko się da.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      AMD konsekwentnie zdobywa coraz silniejszą pozycję na rynku. Firma analityczna Mercury Research, z której usług korzystają m.in. AMD i Intel, poinformowała, że IV kwartał 2019 roku był już 9. kwartałem z kolei, w którym AMD zwiększało swoje udziały w rynku procesorów.
      Analityków zaskoczyły niewielkie postępy na rynku desktopów oraz centrów bazodanowych. W ciągu trzech ostatnich miesięcy ubiegłego roku AMD zyskało tam, odpowiednio, 0,2 i 0,3 punktu procentowego. Największe zaś postępy firma zanotowała na rynku urządzeń przenośnych, gdzie pomiędzy październikiem a grudniem 2019 roku wzrosły o 1,5 punktu procentowego.
      Obecnie AMD posiada 4,5% rynku serwerów (+ 1,4 pp rok do roku), 18,3% rynku desktopów (+2,4 pp rdr), 16,2% rynku urządzeń mobilnych (+ 4,0 pp rdr). Całkowity udział AMD w rynku układów x86 wynosi obecnie 15,5%. Ostatnio tak dobrym wynikiem firma mogła pochwalić się przed niemal 7 laty.
      Sprzedaż desktopowych CPU wzrosła dzięki dużemu popytowi na highendowe procesory dla graczy oraz dlatego, że Intel zwiększył dostawy tanich procesorów. AMD zanotowało bardzo silny wzrost sprzedaży układów z serii Ryzen 3000, a Intel duży wzrost w segmencie i9. Większość wzrostu obu firm pochodziło ze sprzedaży procesorów o największej liczbie rdzeni, mówi Dean McCarron z Mercury Research.
      Warto też zauważyć, że AMD zdominował Black Friday i Cyber Monday na Amazonie, gdzie jego procesory często zajmowały pierwszych 10 pozycji wśród najchętniej kupowanych układów. To jednocześnie pokazuje, że rynek klienta indywidualnego jest znacznie mniejszy niż rynek OEM, na którym tradycyjnie dominuje Intel. Koncern jest szczególnie silny w segmencie przedsiębiorstw i administracji państwowej. Klienci ci pozostają wierni platformie Intela, gdyż unikają w ten sposób kosztownych i długotrwałych procesów związanych z przejściem na inna platformę sprzętową.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W procesorach Intela odkryto kolejną lukę. Dziura nazwana CacheOut to luka typu side-channel, czyli błąd pozwalający na wykorzystanie pewnych szczegółów, często prawidłowej, implementacji.
      Dziura odkryta przez naukowców z University of Michigan i University of Adelaide występuje we wszystkich procesorach od architektury SkyLake po Coffee Lake powstałych przed rokiem 2019. Wiadomo, że nie występuje ona w procesorach AMD, ale badacze nie wykluczają, że jest obecna w układach IBM-a i ARM.
      Jak zauważyli eksperci gdy dane są pobierane z cache'u L1 często trafiają do buforów, z których mogą zostać wykradzione przez napastnika. Bardzo atrakcyjnym elementem CacheOut jest fakt, że napastnik może zdecydować, które dane z L1 zostaną umieszczone w buforze, skąd dokona kradzieży. Specjaliści wykazali, że możliwy jest wyciek danych mimo wielu różnych zabezpieczeń. w tym zabezpieczeń pomiędzy wątkami, procesami, wirtualnymi maszynami, przestrzenią użytkownika a jądrem systemu.
      Intel, który o problemie został poinformowany już w ubiegłym roku, sklasyfikował lukę L1D Eviction Sampling/CVE-2020-0549/INTEL-SA-00329 jako średnio poważną i przygotował odpowiednie poprawki. Odpowiedni mikrokod zostanie upubliczniony a nwjbliższym czasie. Tymczasowym obejściem problemu jest wyłączenie wielowątkowości lub wyłączenie rozszerzenia TSX.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Tegoroczna International Conference for Hight Performance Computing (SC19) nie przyniosła żadnych sensacyjnych informacji na temat TOP500, listy najpotężniejszych komputerów na świecie. Znacznie bardziej interesujące było to, co mówiono o systemach eksaskalowych, których budowa ma rozpocząć się w 2021 roku.
      Wielkimi wygranymi są tutaj ADM, Cray i Intel. Już teraz wiadomo, że firmy te będą tworzyły trzy eksaskalowe maszyny, których powstanie sfinansuje Departament Energii. Cray, należący obecnie do HP Enterprise, będzie odpowiedzialny za połączenia we wszystkich wspomnianych superkomputerach. Maszyna eksaskalowa to superkomputery zdolny do wykonania 1 eksaflopsa czyli 1 tryliona (1018) operacji zmiennoprzecinkowych na sekundę.
      Budową superkomputera Frontier, który stanie w Oak Ridge National Laboratory, zajmą się AMD i Cray. AMD dostarczy CPU i GPU. Zintegrowanie całości będzie zadaniem Craya. Z kolei maszyna Aurora, przeznaczona dla Argonne National Laboratory, ma zostać zbudowana przez Intela (GPU i GPU) oraz Craya (integracja). Trzeci z planowanych w najbliższych latach amerykańskich systemów eksaskalowych – El Capitán – ma zostać zbudowany przez Craya. Obecnie nie wiadomo, kto dostarczy doń procesorów.
      Na pierwszy rzut oka widać, że brakuje w tym towarzystwie dwóch potentatów rynku HPC (High Performance Computing) – IBM-a i Nvidii. Jednak jeśli nawet żadna z tych firm nie będzie zaangażowana w budowę El Capitana, to z pewnością nie zabraknie dla nich pracy na rynku superkomputerów.
      Jeszcze przed SC19 odbyła się konferencja zorganizowana przez Intela, na której koncern mówił o kościach, które rozwija na potrzeby Aurory. Wiemy, że zostaną one wykonane w 7-nanometrowym procesie. Nazwa kodowa procesora Xeon dla Aurory to Sapphire Rapids. Jednak uczestników konferencji bardziej zainteresował przyszły intelowski GPU – Xe HPC o nazwie kodowej Ponte Vecchio.
      Ponte Vecchio będzie miał wersję specjalnie na rynek HPC. Głównym zadaniem układów GPU przeznaczonych do zastosowań HPC jest przetwarzanie liczb zmiennoprzecinkowych pojedynczej i podwójnej precyzji, jednak nowy GPU Intela ma również wspierać formaty popularne na polu sztucznej inteligencji, takie jak INT8, BFloat16 i FP16. Intel wykorzysta również technologię pakowania układów EMIB, która pozwala na podłączenie GPU do interfejsu HBM (High Bandwidth Memory). Ponadto w Ponte Vecchio znajdziemy technologię Foveros 3D pozwalającą składać procesor na podobieństwo klocków i interkonekt XE Memory Fabric (XEMF), przez co CPU i GPU mają mieć dostęp do superszybkiej pamięci zwanej Rambo cache'em. Dzięki dużej ilości cache'u ma poprawić się skalowalność tak ambitnych projektów jak superkompuery eksaskalowe.
      Na potrzeby tych rozwiązań intel tworzy też nowe oprogramowanie oparte na nowym języku programowania Data Parallel C++ (DPC++). Bazuje on na standardzie SYCL z dodanymi przez Intela specyficznymi rozszerzeniami.
      Pojedynczy węzeł Aurory będzie zawierał 2 układy Xeon Sapphire Rapids oraz 6 Ponte Vecchio HPC GPU. Trzeba zauważyć, że Intel wziął na siebie bardzo ambitne zadanie. W ciągu dwóch lat musi bowiem mieć gotowe i przetestowane nowe oprogramowanie, nowy GPU wykonany według nowego procesu produkcyjnego i nowej technologii pakowania.
      W lepszej sytuacji jest AMD. Maszyna Frontier będzie korzystała z EPYC CPU i Radeon Instinct GPU. Firma już produkuje te kości. Obecnie pracuje nad ROCM, czyli odpowiedzią na CUDA Nvidii. ROCM będzie wspierało Tensor Flow i PyTorch. Obecnie AMD bardzo mocno inwestuje w rozwój tej platformy, a podczas SC19 przedstawiciele firmy zapowiedzieli poszerzenie ofery procesorów EPYC.
      Co jeszcze wiemy o przyszłych amerykańskich eksaskalowych komputerach?
      Budowana przez Craya maszyna El Capitán będzie stała z Lawrence Livermore National Laboratory. Jej maksymalna wydajność ma przekraczać 1,5 eksaflopsa, a komputer – wyposażony w zaawansowane możliwości modelowania, symulacji i sztucznej inteligencji bazujące na architekturze Shasta – będzie wykorzystywany do zadań związanych z bezpieczeństwem nuklearnym. Na jego zbudowanie przeznaczono 600 milionów USD, a maszyna ma zostać dostarczona pod koniec 2022 roku.
      Tworzony przez AMD i Craya Frontier ma ruszyć już w 2021 roku, a jego wydajność ma być wyższa niż 1,5 eksafolopsa. Superkomputer będzie wykorzystywany do wielu zadań związanych m.in. z badaniami nad rozpadem atomowym, badaniami klimatu, zostanie zaprzęgnięty do pracy w dziedzinie biomedycyny i inżynierii materiałowej. Również i on ma kosztować około 600 milionów USD.
      Jeśli zaś chodzi o Aurorę, to będzie się on zajmował badaniami nad fuzją jądrową, poszukiwał leków na nowotwory, wykorzystany zostanie przez chemików do badania procesów katalitycznych, wspomoże też nauki z dziedziny neurobiologii czy astrofizyki. Również i na tę maszynę przeznaczono 600 milionów dolarów. Jej wydajność ma przekraczać 1 eksaflops, a komputer ma być gotowy w 2021 roku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przed tygodniem TSMC ogłosiło, że wykorzystywana przezeń technologia 7nm plus (N7+) jest pierwszym komercyjnie dostępnym wdrożeniem technologii EUV (litografii w ekstremalnie dalekim ultrafiolecie). Tym samym tajwański gigant ustawił się w roli światowego lidera EUV. I wielu analityków to potwierdza.
      TSMC jest ewidentnym liderem na rynku EUV, zarówno jeśli chodzi o zamówione i już wykorzystywane narzędzia, liczbę plastrów wytwarzanych w technologii EVU jak i zintegrowania EUV w swoich planach produkcyjnych, mówi Jim Fontanelli, analityk w firmie Arete Ressearc.
      Obecnie najnowocześniejszą z wykorzystywanych technologii jest 7+ z trójwarstwową maską EUV. W drugiej połowie połowie przyszłego roku TSMC ma zamiar wdrożyć 5 nm z maską 15-warstwową, a pod koniec 2020 roku zadebiutuje technologia 6 nm, w której wykorzystana zostanie 4-warstwowa maska EUV, twierdzi Fontanelli.
      Zdaniem analityka, obecnie największym odbiorcą plastrów 7+ produkowanych przez TSMC jest AMD i ma to związek z ograniczoną dostępnością produktu. Jednak przy przejściu na węzeł 5nm pozycję kluczowego klienta w tej technologii powinno zyskać Huawei, a na drugim miejscu znajdzie się Apple. Obie firmy chcą bowiem wykorzystać możliwości związane z miniaturyzacją, mniejszym poborem mocy oraz poprawieniem wydajności. Największym odbiorcą plastrów 6nm ma zostać, również w zwiazku z ograniczoną podażą 7nm, MediaTek.
      Wdrożenie EUV jest bardzo trudne. Dość wspomnieć, że technologia ta wymaga źródła światła o mocy 250W. Tymczasem w powszechnie obecnie wykorzystywanej litografii zanurzeniowej wykorzystuje się moc 90W. A kolejna generacja EUV, high-NA EUV będzie wymagała 500-watowego źródła.
      EUV oferuje jednak tak wiele zalet, że warto przebrnąć trudy jej wdrożenia. Przede wszystkim pozwala zaś skrócić czas produkcji i uniknąć wielokrotnego naświetlania plastra.
      Technologia ta jest jednak na tyle nowa, kosztowna i sprawia tak dużo problemów, że obecnie jedynie trzech światowych producentów – TSMC, Samsung i Intel – ma w planach jej wdrożenie do produkcji. Intel jest w tych pracach najmniej zaawansowany. Intel wydaje się całkowicie zaangażowany w EUV 7nm, którą wdroży w 2021 roku. Liczba warstw w masce będzie tam mniejsza niż liczba warstw w węźle 5nm TSMC. Ma to związek w różnicach wymagań technologicznych. Prawdopodobnie warstw tych będzie mniej niż 10, mówi Fontanelli.
      Fakt, dla którego Fontanelli w dużej mierze opiera się na domysłach, dobrze wyjaśniają słowa innego analityka, Dana Hutchesona z VLSI Reseearch. Intel to największa zagadka spośród tych trzech producentów, gdyż nie tworzy podzespołów na zamówienie, zatem nie ma powodu, dla którego miałby zdradzać, co robi. Ponadto warto pamiętać, że Intel zawsze wdrażał narzędzia litograficzne dla kolejnych węzłów wcześniej, niż ktokolwiek inny. Ponadto od lat najbardziej angażuje się w badania nad EUF. Nie ma też marketingowego powodu, by na bieżąco informować o postępach w EUF, dlatego też sądzę, że nic nie powiedzą, zanim nie będą pewni, że są gotowi do rozpoczęcia produkcji.
      Początkowo Intel miał zamiar rozpocząć produkcję 7-nanometrowych układów w 2017 roku, jednak w związku z opóźnieniami przy węzłach 14- i 10-nanometrowym plany te przesunięto o cztery lata. W bieżącym roku menedżerowie Intela zapowiedzieli, że procesy produkcyjne 7-nanometrowych układów tej firmy będą równie lub bardziej wydajne niż procesy produkcyjne 5-nanometrowych kości TSMC.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie z intelowskiej grupy Strategic Offensive Research & Mitigation (STORM) opublikowali pracę naukową opisującą nowy rodzaj pamięci dla procesorów. Pamięć taka miałaby zapobiegać atakom side-channel wykorzystującym mechanizm wykonywania spekulatywnego, w tym atakom na błędy klasy Spectre.
      Wymienienie w tym kontekście dziury Spectre nie jest przypadkiem. Zespół STORM powstał bowiem po tym, jak Intel został poinformowany przez Google'a i niezależnych badaczy o istnieniu dziur Meltdown i Spectre. Przypomnijmy, że są to błędy w architekturze procesorów. Meltdown występuje niemal wyłącznie w procesorach Intela, Spectre dotyczy wszystkich procesorów wyprodukowanych przed rokiem 2019, które wykorzystują mechanizm przewidywania rozgałęzień. Dziura Spectre ma większy wpływ na procesory Intela niż innych producentów.
      Główny rywal Intela, AMD, w dużej mierze poradził sobie z atakami typu Spectre zmieniając architekturę procesorów Ryzen i Epyc. Intel jak dotąd walczy ze Spectre za pomocą poprawiania oprogramowania. To dlatego – jak wykazały testy przeprowadzone przez witrynę Phoronix – średni spadek wydajności procesorów Intela spowodowany zabezpieczeniami przed Spectre jest aż 5-krotnie większy niż w przypadku procesorów AMD.
      Inżynierowie ze STORM opisali nowy rodzaj pamięci dla procesorów, którą nazwali Speculative-Access Protected Memory (SAPM). Ma być ona odporna na obecne i przyszłe ataki typu Spectre i podobne. Członkowie grupy STORM mówią, że większość ataków typu Spectre przeprowadza w tle te same działania, a SAPM ma domyślnie blokować takie operacje, co zapobiegnie obecnym i ewentualnym przyszłym atakom.
      Jak przyznają badacze Intela, zaimplementowanie pamięci SAPM negatywnie wpłynie na wydajność procesorów tej firmy, jednak wpływ ten będzie mniejszy niż wpływ obecnie stosowanych łatek programowych. Mimo że spadek wydajności dla każdego przypadku dostępu do pamięci SAPM jest dość duży, to operacje tego typu będą stanowiły niewielką część operacji związanych z wykonaniem oprogramowania, zatem całkowity koszt będzie niski i potencjalnie mniejszy niż spadek wydajności spowodowany obecnie stosowanymi rozwiązaniami, czytamy w opublikowanym dokumencie.
      SAPM może zostać zaimplementowany zarówno na poziomie adresu fizycznego jak i wirtualnego. W tym drugim przypadku pamięć byłaby kontrolowana z poziomu systemu operacyjnego. Jeśli zaś ten zostałby skompromitowany, a tak się często dzieje, SAPM nie będzie chroniła przed atakiem.
      W opublikowanej pracy czytamy, że jest to praca teoretyczna, dotycząca możliwych implementacji, co oznacza, że całościowa koncepcja nie jest jeszcze gotowa i jeśli w ogóle SAPM powstanie, będzie wymagała długotrwałych szczegółowych testów.

      « powrót do artykułu
×
×
  • Create New...