Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Nowy czterordzeniowiec Intela

Rekomendowane odpowiedzi

Bez zbytniego rozgłosu zadebiutował nowy czterordzeniowy procesor Intela. Układ, przeznaczony dla serwerów i stacji roboczych, pojawił się na rynku wcześniej, niż oczekiwano.

Xeon E5335 taktowany jest zegarem o częstotliwości 2 GHz i korzysta z 8-megabajtowej pamięci cache poziomu drugiego. Układ współpracuje z podstawką LGA771 i 1333-megahercową szyną systemową. Jego TDP (thermal design power – pobór mocy wyrażony wydzielaniem ciepła) wynosi 80 watów.

Producent wycenił Xeona E5335 na 690 USD przy zakupie 1000 sztuk.

Początkowo Intel planował premierę tego procesora na pierwszy kwartał przyszłego roku. Koncern poinformował, że termin rozpoczęcia sprzedaży przyspieszono, gdyż domagali się tego producenci sprzętu komputerowego.

Xeon 5335 może pracować w konfiguracjach dwuprocesorowych i właśnie w takich będzie sprzedawany przez HP, Della, Silicon Graphics i IBM-a. Nie wiadomo, kiedy procesor będzie dostępny dla mniejszych producentów sprzętu.

W pierwszym kwartale przyszłego roku na rynek mają trafić energooszczędne wersje czterordzeniowych układów. Ich TDP ma wynieść jedynie 50 W.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość FF 3.0 i Opera 10.0 + TOR

Zwykłe naciąnganie jeśli musisz mieć dobry procesor to kup sobie IBM G6(3.2GHz) lub P4 965EE(3.73GHz x 2. 65nm) albo poczekaj na AMD64 FX-76(3.6GHz 65nm).

Ważne jest to ile Hz-ców ma rdzeń a nie suma rdzeni.SONY ma 8 rdzeniowwego CELL-a(3.2GHz 65nm najnowsze wersje) więnc teraz normą powinno być np.P4 965EE.8 x 3.73GHz 45nm z możliwością współdźielenia pamięnci podręncznej 8 x 4096MB.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość G6-CELL-P4-AMD

Procesor Power6 taktowany zegarem szybszym niż 5 GHz, procesor Cell z zegarem ponad 6 GHz i 80-rdzeniowy procesor Intela - taka będzie najbliższa przyszłość rynku procesorów.

Najnowsze koncepcje przedstawiono w materiałach na technologiczną konferencję, która odbędzie się w lutym w USA.

 

Jak poinformował portal DailyTech, podczas International Solid State Circuits Conference, organizowanej w San Francisco przez amerykańskie Stowarzyszenie Inżynierów Elektryków i Elektroników, zostanie przedstawiony kilkuletni plan rozwoju najważniejszych konstrukcji mikroprocesorowych na świecie. Tworzony przez IBM nowy procesor Power6 będzie pracował z zegarem "powyżej 5 GHz". Pierwsze procesory tego typu mają pojawić się na rynku jeszcze w 2007 roku. Nowy procesor IBM ma działać w systemach informatycznych "wymagających wysokiej wydajności". Będzie on jednostką dwurdzeniową, wyprodukowaną w technologii 65- nanometrowej, zawierającą 700 mln tranzystorów.

 

Nowy procesor Cell, tworzony przez Toshibę, IBM i Sony, występuje pod nazwą Cell Broadband Engine. Druga generacja tych procesorów ma pracować z zegarami od 3 do 6 GHz i ma być wykonana w technologii 65 nanometrów. Cell ma być stosowany w pracach związanych grafiką i multimediami.

 

Intel będzie nadal rozwijał linię procesorów wielordzeniowych. Szczytowy punkt rozwoju tej technologii ma stanowić 80-rdzeniowy procesor, wykonany w technologii 65-nanometrów, pracujący z zegarem nieco powyżej 4 GHz.

 

Także dwie inne firmy przedstawiły na International Solid State Circuits Conference swoje nowe procesory. Niagara2 koncernu Sun Microsystems ma być procesorem dla systemów wymagających bardzo dużej wydajności, zaś Barcelona firmy AMD to procesor czterordzeniowy, zarówno dla małych serwerów, jak i wydajnych stacji roboczych oraz komputerów typu desktop. Barcelona znajdzie się na rynku w połowie 2007 roku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Przepowiednia

Dzisiejsze urządzenia docenimy szczególnie wówczas, gdy przypomnimy sobie komputery sprzed 50 laty, które wymagały skomplikowanych operacji manualnych (patrz: "Zapomniane technologie"), ukończenia specjalnych kursów obsługi oraz umiejętności czytania (sic!).

 

Monopolista 3Dfx

Po zastoju w latach 2001-2006 przemysł IT szybko nabrał rozpędu. Podstawą rozwoju stały się technologie opracowane w poprzedniej pięciolatce, które wówczas były jednak zbyt drogie, by choćby spróbować wprowadzić je na rynek.

      Wbrew powszechnym oczekiwaniom pochodzące z zeszłego wieku tzw. prawo Moore'a (mówiące, że wydajność komputerów podwaja się co 18 miesięcy) pozostało prawdziwe przez pierwsze trzy dekady naszego stulecia. Stało się to możliwe dzięki ostrej konkurencji między firmami mikroprocesorowymi, które nie szczędziły nakładów na badania, byle tylko choćby o pół teraherca wyprzedzić konkurencję. Szczególnie owocna okazała się rywalizacja między Intelem a 3Dfx (firmą, która do 2020 roku nosiła nazwę nVidia). Intel przodował w wykorzystaniu do produkcji procesorów nanotechnologii. Przegrywający w tym wyścigu 3Dfx zdobył się na krok rozpaczliwy: wykupił trzy słynne uczelnie: MIT, Carnegie Melon i Fraunhofer-Institut, razem z prawem własności do wszelkich prowadzonych tam badań. Dzięki tej inwestycji w 2015 roku mógł na nanotechnologię odpowiedzieć pierwszym domowym mikroprocesorem optycznym Dodatkowo 3Dfx postawił na polimery podczas gdy Intel trwał przy krystalicznym węglu jako nośniku. Pamiętamy, że legendarny Optical-Voodoo 1 wymagał osobnej obudowy wielkości małej lodówki. Kwestia wielkości procesora i jego umiejscowienia względem pozostałych komponentów systemu zeszła jednak na dalszy plan, gdy w domach masowo implementowano mechanizmy przetwarzania rozproszonego, czyli tzw. gridu.

Fani "optyka" cenili sobie jego cichą i niepodgrzewającą atmosfery pracę. Tradycyjny "krzem" już nigdy nie odzyskał utraconej pozycji, do dziś natomiast stosowany jest tam, gdzie małe wymiary są ważniejsze niż duże zużycie prądu i konieczność zastosowania aktywnego i hałaśliwego chłodzenia.

Podziemna moc

Najważniejszym wydarzeniem z dzisiejszego punktu widzenia było zwiększenie odległości między komputerem a wyświetlaczem i urządzeniami peryferyjnymi. Upowszechnienie w latach 2010-2015 Terabit-Ethernetu pozwoliło wyprowadzić jednostkę centralną z mieszkania i przenieść ją do piwnicy. Superszybkie sieci lokalne doprowadzone do każdego pomieszczenia przekazywały w jedną stronę dane do wyświetlaczy na ścianach, a w drugą polecenia z urządzeń peryferyjnych oraz czytników danych. Warto pamiętać, że jeszcze trzydzieści lat temu zdarzali się pasjonaci, którzy sami konfigurowali swoje komputery, a nawet je osobiście składali (!) i samodzielnie usiłowali sobie radzić z pojawiającymi się problemami. Obecnie należy to do obowiązków administracji osiedla, która w równym stopniu odpowiada za usuwanie awarii wodociągowych, co sporadycznych zawieszeń systemu operacyjnego.

Wszyscy za jednego

Dziś, "kupując" komputer, płaci się de facto za prawo do korzystania z blokowego klastra. Rezygnacja z posiadania indywidualnych skrzynek rozwiązała kilka istotnych problemów. Pierwotne pecety jednak praktycznie zawsze były niedopasowane do potrzeb - przez większość czasu ich moc obliczeniowa była wykorzystywana w niewielkim stopniu, a gdy użytkownik zapragnął rozerwać się przy nowej grze, przeważnie narzekał na niezbyt płynną animację. Zerwanie z indywidualizmem oraz popularyzacja technologii przetwarzania rozproszonego grid pozwoliło współdzielić moc obliczeniową w obrębie bloku mieszkalnego czy osiedla willowego, a od 2020 praktycznie w całej Europie, USA i większości krajów Azji.

      Sąsiedzkie współdzielenie czasu procesorów rozszerzono także poza blokowiska po udostępnieniu dla użytkowników indywidualnych infrastruktury Internetu 2 Przeciętny obywatel ma dziś do dyspozycji więcej mocy obliczeniowej niż wojskowe ośrodki badawcze sprzed pół wieku, co sprawiło jednak nieoczekiwane kłopoty.

Kwant kontra bit

Lawinowy przyrost wydajności komputerów osobistych sprawił, że dawne metody szyfrowania, wykorzystywane przy każdorazowej transakcji, e-wyborach czy zakupach online i w tysiącu innych sytuacji, okazały się zbyt łatwe do siłowego przełamania. Niezbędne stało się zastosowanie metod kryptograficznych opartych na mechanice kwantowej.

      Choć komputery kwantowe znane były od początku stulecia (patrz: CHIP 12/1998, s. 60; CHIP 7/2001, s. 46), to do końca drugiej dekady nie było potrzeby ich stosowania w domach i zakładach pracy. Nawet jednak gdy grid postawił pod znakiem zapytania sens tradycyjnych szyfrów, nadal nie istniały racjonalne powody do zastąpienia tradycyjnej architektury komputerów osobistych przez mechanizmy oparte na zjawiskach kwantowych. Znakomita większość zadań mogła zostać wykonana za pomocą klasycznych technologii. Rozszerzono więc jedynie tradycyjną architekturę PC o powszechną dziś QC (Quant-Card). Nowy podzespół oprócz szyfrowania i deszyfrowania zajmował się wkrótce także realizowaniem zadań sztucznej inteligencji.Najważniejszą jednak zmianą, wywołaną wprowadzeniem QC, była możliwość rezygnacji z pracy umysłowej, świadczonej dotąd przez ludzi. Czwarta generacja Quant-Card, wprowadzona na rynek w 2028 roku, okazała się wystarczająco sprawna, by skutecznie zasymulować umysł absolwenta wyższej uczelni o ilorazie inteligencji na poziomie IQ 130. Zatrudnianie i opłacanie ludzi stało się w tym momencie ekonomicznym absurdem. Wszyscy znamy konsekwencje tego przełomu. Tak zwana Rewolucja Artystyczna, która miała miejsce w krajach rozwiniętych w latach 2030-2035, zmieniła sposób kształcenia. Od tej pory liczy się tylko innowacyjność, oryginalność i talent artystyczny - od racjonalności i wiedzy mamy maszyny.

Ostateczny koniec piractwa

W upowszechnieniu się idei sąsiedzkich klastrów wielką rolę odegrały BSA i inne organizacje walczące z tzw. piractwem. Odcięcie użytkownika komputera od sprzętu pozwoliło wyeliminować zjawisko nielegalnego korzystania z programów, systemów operacyjnych, muzyki, filmów itp. Od 2021 roku coraz popularniejsze stało się wliczanie do czynszu abonamentu za korzystanie z systemów operacyjnych, aplikacji użytkowych oraz danych kulturalno-rozrywkowych. Przełomem stało się zdelegalizowanie w 2030 roku w USA prawa do indywidualnego posiadania urządzenia cyfrowego niepodpiętego do publicznej infrastuktury sieciowej. W ciągu następnej dekady podobne regulacje przyjęły niemal wszystkie kraje świata (oprócz Libii i rządzonej przez Fidela Castro Kuby). Obecnie przechowywanie urządzenia przetwarzającego dane, niezgodnego z regulacjami zawartymi w tzw. Secure Computing Act, jest w wiekszości krajów traktowane równie surowo co handel narkotykami.Prawdziwa mobilność.Tym, czym Terabit-Ethernet i grid były dla komputerów domowych, tym dla urządzeń kieszonkowych stał się standard Wi-Fi 2. Możliwość korzystania z tych samych aplikacji w domu, na plaży czy w trakcie grzybobrania może się dziś wydawać oczywista, ale warto pamiętać, że pół wieku temu człowiek pozbawiony dostępu do sieci kablowych mógł co najwyżej komunikować się głosowo. Wymiana dwuwymiarowych, nieruchomych obrazów uznawana była na początku naszego wieku za wielkie osiągnięcie. Dziś niewiele jest miejsc na Ziemi, gdzie zabrakłoby nam mocy obliczeniowej. Choć oczywiście Wi-Fi 2 nie pozwala na rzeczywistą zdalną pracę na maszynie spoczywającej w piwnicy naszego domu, to ujednolicony system subskrybcji gwarantuje każdemu podatnikowi dostęp do najbliższego klastra, dysponującego wolnymi mocami. Jako anegdotę warto tu przypomnieć, że kiedyś osobom potrzebującym korzystać z technologii przetwarzania informacji w podróży (a kto niby tego nie potrzebuje?) proponowano tzw. notebooki, czyli ważące do 5 kilogramów komputery, z trudem mieszczące się do sporej torby. Trzeba pamiętać, że część tej pokaźnej masy stanowił wyświetlacz o oszałamiającej wielkości sięgającej... 15 cali. Trudno sobie wyobrazić, jak można było cokolwiek zobaczyć na tak małym ekranie, prawda?

Napisy na ścianach.

Najważniejszym wynalazkiem z dzisiejszego punktu widzenia było wprowadzenie w 2034 roku do procesu produkcyjnego materiałów budowlanych warstwy nanoekranów, (zwanych dawniej elektronicznym papierem.Organiczne wyświetlacze, które stanowiły podstawę nanoekranów znane były od końca XX wieku  a elastyczne, składane ekrany o grubości nieprzekraczającej 3 milimetrów przy praktycznie nieograniczonej powierzchni powszechnie stosowano od 2017 roku. Od tamtej pory można było nosić ekran ze sobą i rozkładać go nawet na ziemi, ale... właśnie - trzeba go było nosić. Nanoekrany stanowiące zewnętrzną warstwę każdej ściany, tak zewnętrznej, jak i wewnętrznej, pozwoliły uwolnić się od lekkich wprawdzie, ale niezbyt poręcznych płacht. Rozkładanie organicznych wyświetlaczy na świeżym powietrzu było szczególnie irytujące w wietrzne dni...

      Nanoekrany spotkały się początkowo z ostrą krytyką, gdyż brak odpowiednich regulacji prawnych prowadził do nadużyć ze strony właścicieli sklepów. Konfigurowali oni swoje systemy reklamy ulicznej, tak by odczytywały dane osobowe przechodniów, a następnie po nazwisku wzywały do zrobienia zakupów. Gorszący widok przemykającego chyłkiem człowieka, którego goni wielki napis na ścianie: "Kowalski! Kiedy wreszcie kupisz zabawkę dla Twojej Zosi?!!" był wówczas, niestety, dość częsty.

      Początkowy chaos minął, korzyści pozostały: możemy mieć ekran w każdym miejscu, w którym jest chociaż jedna ściana. Wielkość obrazu ogranicza nam jedynie liczba chętnych do skorzystania z tego samego kawałka muru, co, niestety, przy stale rosnącym przeludnieniu staje się poważnym problemem (jeszcze w zeszłym roku statystyczny obywatel aktywował nanoekran o przekątnej 53, gdy w tym roku jedynie 49 cali).DNA pamięta wszystko.

Dawni miłośnicy filmów (wówczas jeszcze całkowicie pozbawionych interaktywności) gromadzili swe zabytkowe zbiory na płaskich dyskach, wykorzystujących do przenoszenia informacji zapis optyczny. Metoda ta nie była zbyt wydajna. Choć trudno w to uwierzyć, jeszcze trzydzieści lat temu na wykorzystujący tzw. niebieski laser krążek wielkości talerzyka do ciastek mieściło się zaledwie kilkanaście dwuwymiarowych filmów o żałosnej rozdzielczości. Pamięci holograficzne które w 2018 roku zastąpiły dwuwymiarowe metody zapisu, też nie wystarczyły na długo. Na szczęście wówczas pojawiły się szybkie metody syntezy DNA, będące podstawą dzisiejszych biopamięci. Warto tu przypomnieć, że metodę zapisu informacji w formie łańcuchów związków chemicznych znano już na początku XXI wieku (patrz: CHIP 12/2000, 258). Wówczas jednak zarówno zapis, jak i odczyt były niezwykle wolne - odszyfrowanie kilkuset megabajtów trwało nawet kilkanaście godzin. Dopiero wynalezienie w 2034 roku szybkej metody syntezy DNA pozwoliło na produkcję powszechnych dziś biokrążków, na których w ciągu minuty możemy zapisać do 27 petabajtów danych (dane dla modelu Seagate Whale IV).

      Od 2035 roku coraz silniejsza była tendencja do umieszczania układów interfejsu w cyberprotezach oraz digitalizowania zmysłów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Intel ogłosił, że wybuduje w Polsce supernowoczesny zakład integracji i testowania półprzewodników. Stanie on w Miękini pod Wrocławiem, a koncern ma zamiar zainwestować w jego stworzenie do 4,6 miliarda dolarów. Inwestycja w Polsce to część obecnych i przyszłych planów Intela dotyczących Europy. Firma ma już fabrykę półprzewodników w Leixlip w Irlandii i planuje budowę drugiej w Magdeburgu w Niemczech. W sumie Intel chce zainwestować 33 miliardy euro w fabrykę w Niemczech, zakład badawczo-rozwojowo-projektowy we Francji oraz podobne przedsięwzięcia we Włoszech, Hiszpanii i Polsce.
      Zakład w Polsce ma rozpocząć pracę w 2027 roku. Zatrudnienie znajdzie w nim około 2000 osób, jednak inwestycja pomyślana została tak, by w razie potrzeby można było ją rozbudować. Koncern już przystąpił do realizacji fazy projektowania i planowania budowy, na jej rozpoczęcie będzie musiała wyrazić zgodę Unia Europejska.
      Intel już działa w Polsce i kraj ten jest dobrze przygotowany do współpracy z naszymi fabrykami w Irlandii i Niemczech. To jednocześnie kraj bardzo konkurencyjny pod względem kosztów, w którym istnieje solidna baza utalentowanych pracowników, stwierdził dyrektor wykonawczy Intela, Pat Gelsinger. Przedstawiciele koncernu stwierdzili, że Polskę wybrali między innymi ze względu na istniejącą infrastrukturę, odpowiednio przygotowaną siłę roboczą oraz świetne warunki do prowadzenia biznesu.
      Zakład w Miękini będzie ściśle współpracował z fabryką w Irlandii i planowaną fabryką w Niemczech. Będą do niego trafiały plastry krzemowe z naniesionymi elementami elektronicznymi układów scalonych. W polskim zakładzie będą one cięte na pojedyncze układy scalone, składane w gotowe chipy oraz testowane pod kątem wydajności i jakości. Stąd też będą trafiały do odbiorców. Przedsiębiorstwo będzie też w stanie pracować z indywidualnymi chipami otrzymanymi od zleceniodawcy i składać je w końcowy produkt. Będzie mogło pracować z plastrami i chipami Intela, Intel Foundry Services i innych fabryk.
      Intel nie ujawnił, jaką kwotę wsparcia z publicznych pieniędzy otrzyma od polskiego rządu. Wiemy na przykład, że koncern wciąż prowadzi negocjacje z rządem w Berlinie w sprawie dotacji do budowy fabryki w Magdeburgu. Ma być ona warta 17 miliardów euro, a Intel początkowo negocjował kwotę 6,8 miliarda euro wsparcia, ostatnio zaś niemieckie media doniosły, że firma jest bliska podpisania z Berlinem porozumienia o 9,9 miliardach euro dofinansowania. Pat Gelsinger przyznał, że Polska miała nieco więcej chęci na inwestycję Intela niż inne kraje.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Intel potwierdził, że kosztem ponad 20 miliardów dolarów wybuduje nowy kampus w stanie Ohio. W skład kampusu wejdą dwie supernowoczesne fabryki półprzewodników, gotowe do produkcji w technologii 18A. To przyszły, zapowiadany na rok 2025 proces technologiczny Intela, w ramach którego będą powstawały procesory w technologii 1,8 nm. Budowa kampusu rozpocznie się jeszcze w bieżącym roku, a produkcja ma ruszyć w 2025 roku.
      Intel podpisał też umowy partnerskie z instytucjami edukacyjnymi w Ohio. W ich ramach firma przeznaczy dodatkowo 100 milionów dolarów na programy edukacyjne i badawcze w regionie. "To niezwykle ważna wiadomość dla stanu Ohio. Nowe fabryki Intela zmienią nasz stan, stworzą tysiące wysoko płatnych miejsc pracy w przemyśle półprzewodnikowym", stwierdził gubernator Ohio, Mike DeWine.
      To największa w historii Ohio inwestycja dokonana przez pojedyncze prywatne przedsiębiorstwo. Przy budowie kampusu zostanie zatrudnionych 7000 osób, a po powstaniu pracowało w nim będzie 3000osób. Ponadto szacuje się, że inwestycja długoterminowo stworzy dziesiątki tysięcy miejsc pracy w lokalnych firmach dostawców i partnerów.
      Kampus o powierzchni około 4 km2 powstanie w hrabstwie Licking na przedmieściach Columbus. Będzie on w stanie pomieścić do 8 fabryk. Intel nie wyklucza, że w sumie w ciągu dekady zainwestuje tam 100 miliardów dolarów, tworząc jeden z największych na świecie hubów produkcji półprzewodników.
      Tak olbrzymia inwestycja przyciągnie do Ohio licznych dostawców produktów i usług dla Intela. Będzie ona miała daleko idące konsekwencje. Fabryka półprzewodników różni się od innych fabryk. Stworzenie tak wielkiego miejsca produkcji półprzewodników jest jak budowa małego miasta, pociąga za sobą powstanie tętniącej życiem społeczności wspierających dostawców usług i produktów. [...] Jednak rozmiar ekspansji Intela w Ohio będzie w dużej mierze zależał od funduszy w ramach CHIPS Act, stwierdził wiceprezes Intela ds. produkcji, dostaw i operacji, Keyvan Esfarjani.
      Nowe fabryki mają w 100% korzystać z energii odnawialnej, dostarczać do systemu więcej wody niż pobiera oraz nie generować żadnych odpadów stałych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po raz pierwszy w historii udało się zdobyć klucz szyfrujący, którym Intel zabezpiecza poprawki mikrokodu swoich procesorów. Posiadanie klucza umożliwia odszyfrowanie poprawki do procesora i jej analizę, a co za tym idzie, daje wiedzę o luce, którą poprawka ta łata.
      W tej chwili trudno jest ocenić rzeczywisty wpływ naszego osiągnięcia na bezpieczeństwo. Tak czy inaczej, po raz pierwszy w historii Intela udało się doprowadzić do sytuacji, gdy strona trzecia może wykonać własny mikrokod w układach tej firmy oraz przeanalizować poprawki dla kości Intela, mówi niezależny badacz Maxim Goryachy. To właśnie on wraz z Dmitrym Sklyarovem i Markiem Ermolovem, którzy pracują w firmie Positive Technolgies, wyekstrahowali klucz szyfrujący z układów Intela. Badacze poinformowali, że można tego dokonać w przypadku każdej kości – Celerona, Pentium i Atoma – opartej na mikroarchitekturze Goldmont.
      Wszystko zaczęło się trzy lata temu, gdy Goryachy i Ermolov znaleźli krytyczną dziurę Intel SA-00086, dzięki której mogli wykonać własny kod m.in. w Intel Management Engine. Intel opublikował poprawkę do dziury, jednak jako że zawsze można przywrócić wcześniejszą wersję firmware'u, nie istnieje całkowicie skuteczny sposób, by załatać tego typu błąd.
      Przed pięcioma miesiącami badaczom udało się wykorzystać tę dziurę do dostania się do trybu serwisowego „Red Unlock”, który inżynierowie Intela wykorzystują do debuggowania mikrokodu. Dzięki dostaniu się do Red Unlock napastnicy mogli
      zidentyfikować specjalny obszar zwany MSROM (microcode sequencer ROM). Wówczas to rozpoczęli trudną i długotrwałą procedurę odwrotnej inżynierii mikrokodu. Po wielu miesiącach analiz zdobyli m.in. klucz kryptograficzny służący do zabezpieczania poprawek. Nie zdobyli jednak kluczy służących do weryfikacji pochodzenia poprawek.
      Intel wydał oświadczenie, w którym zapewnia, że opisany problem nie stanowi zagrożenia, gdyż klucz używany do uwierzytelniania mikrokodu nie jest zapisany w chipie. Zatem napastnik nie może wgrać własnej poprawki.
      Faktem jest, że w tej chwili napastnicy nie mogą wykorzystać podobnej metody do przeprowadzenia zdalnego ataku na procesor Intela. Wydaje się jednak, że ataku można by dokonać, mając fizyczny dostęp do atakowanego procesora. Nawet jednak w takim przypadku wgranie własnego złośliwego kodu przyniosłoby niewielkie korzyści, gdyż kod ten nie przetrwałby restartu komputera.
      Obecnie najbardziej atrakcyjną możliwością wykorzystania opisanego ataku wydaje się hobbistyczne użycie go do wywołania różnego typu zmian w pracy własnego procesora, przeprowadzenie jakiegoś rodzaju jailbreakingu, podobnego do tego, co robiono z urządzeniami Apple'a czy konsolami Sony.
      Atak może posłużyć też specjalistom ds. bezpieczeństwa, który dzięki niemu po raz pierwszy w historii będą mogli dokładnie przeanalizować, w jaki sposób Intel poprawia błędy w swoim mikrokodzie lub też samodzielnie wyszukiwać takie błędy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W chipsetach Intela używanych od ostatnich pięciu lat istnieje dziura, która pozwala cyberprzestępcom na ominięcie zabezpieczeń i zainstalowanie szkodliwego kodu takiego jak keyloggery. Co gorsza, luki nie można całkowicie załatać.
      Jak poinformowała firma Positive Technologies, błąd jest zakodowany w pamięci ROM, z której komputer pobiera dane podczas startu. Występuje on na poziomie sprzętowym, nie można go usunąć. Pozwala za to na przeprowadzenie niezauważalnego ataku, na który narażone są miliony urządzeń.
      Na szczęście możliwości napastnika są dość mocno ograniczone. Przeprowadzenie skutecznego ataku wymaga bowiem bezpośredniego dostępu do komputera lub sieci lokalnej, w której się on znajduje. Ponadto przeszkodę stanowi też klucz kryptograficzny wewnątrz programowalnej pamięci OTP (one-time programable). Jednak jednostka inicjująca klucz szyfrujący jest również podatna na atak.
      Problem jest poważny, szczególnie zaś dotyczy przedsiębiorstw, które mogą być przez niego narażone na szpiegostwo przemysłowe. Jako, że błąd w ROM pozwala na przejęcie kontroli zanim jeszcze zabezpieczony zostanie sprzętowy mechanizm generowania klucza kryptograficznego i jako, że błędu tego nie można naprawić, sądzimy, że zdobycie tego klucza jest tylko kwestią czasu, stwierdzili przedstawiciele Positive Technologies.
      Błąd występuję w chipsetach Intela sprzedawanych w przeciągu ostatnich 5 lat. Wyjątkiem są najnowsze chipsety 10. generacji, w której został on poprawiony.
      Intel dowiedział się o dziurze jesienią ubiegłego roku. Przed kilkoma dniami firma opublikowała poprawkę, która rozwiązuje problem. Firma przyznaje, że programowe naprawienie dziury jest niemożliwe. Dlatego też poprawka działa poprzez poddanie kwarantannie wszystkich potencjalnych celów ataku.
      Dziura znajduje się w Converged Security Management Engine (CSME), który jest odpowiedzialny za bezpieczeństwo firmware'u we wszystkich maszynach wykorzystujących sprzęt Intela.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Nowa metoda ataku na procesory Intela wykorzystuje techniki overclockingu. Eksperci ds. bezpieczeństwa odkryli, że możliwe jest przeprowadzenie ataku na procesory i zdobycie wrażliwych danych – jak na przykład kluczy kryptograficznych – poprzez manipulowanie napięciem procesora.
      Nowy atak, nazwany Plundervolt, bierze na celownik Intel Software Guard Extensions (SGS). To zestaw kodów bezpieczeństwa wbudowanych w intelowskie CPU. Celem Intel SGX jest zamknięcie najważniejszych informacji, takich właśnie jak klucze, w fizycznie odseparowanych obszarach pamięci procesora, gdzie są dodatkowo chronione za pomocą szyfrowania. Do obszarów tych, zwanych enklawami, nie mają dostępu żadne procesy spoza enklawy, w tym i takie, działające z większymi uprawnieniami.
      Teraz okazuje się, że manipulując napięciem i częstotliwością pracy procesora można zmieniać poszczególne bity wewnątrz SGX, tworząc w ten sposób dziury, które można wykorzystać.
      Naukowcy z University of Birmingham, imec-DistriNet, Uniwersytetu Katolickiego w Leuven oraz Uniwersytetu Technologicznego w Grazu mówią: byliśmy w stanie naruszyć integralność Intel SGX w procesorach Intel Core kontrolując napięcie procesora podczas przetwarzania instrukcji w enklawie. To oznacza, że nawet technologia szyfrowania/uwierzytelniania SGX nie chroni przed atakiem Plundervolt.
      Intel zaleca aktualizacje BIOS-u do najnowszych wersji.
      Przeprowadzenie ataku nie jest łatwe. Znalezienie odpowiedniej wartości napięcia wymaga eksperymentów i ostrożnego zmniejszania napięcia (np. w krokach co 1 mV), aż do czasu wystąpienia błędu, ale przed spowodowaną manipulacją awarią systemu, stwierdzają odkrywcy dziury. Naukowcom udało się doprowadzić do takich zmian w SGX, że stworzyli dziury umożliwiające zwiększenie uprawnień i kradzież danych.
      Do przeprowadzenia ataku nie trzeba mieć fizycznego dostępu do komputera, jednak by zdalnie zaatakować SGX konieczne jest wcześniejsze zdobycie uprawnień administracyjnych na atakowanym systemie.
      Plundervolt może zostać przeprowadzony na wszystkie procesory Intel Core od czasów Skylake'a, co oznacza, że narażone są Intel Core 6., 7., 8., 9. i 10. generacji oraz układy Xeon E3 v5 i v6, a także Xeony z rodzin E-2100 i E-2200.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...