Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Intel szykuje wielką obniżkę cen procesorów?

Recommended Posts

Pojawiły się pogłoski, że Intel ma zamiar znacząco obniżyć ceny procesorów 9. generacji. Jak donosi TweakTown, w obliczu zbliżającej się premiery procesorów Cascade Lake-X koncern ma zamiar obciąć ceny układów Skylake-X nawet o 50%. W ten sposób firma chce szybciej opróżnić magazyny i lepiej konkurować z AMD.

Jeśli rzeczywiście dojdzie do tak znaczącej obniżki, to najprawdopodobniej Intel będzie musiał dopłacić swoim dystrybutorom i innym parterom handlowym. To obniży firmowe zyski, jednak pozwoli lepiej konkurować z AMD.

Obecnie AMD oferuje lepsze ceny procesorów z przeliczeniu na rdzeń, dlatego też wielu graczy wybiera układy Ryzen 5 3600/X lub Ryzen 7 3700X i cieszy się lepszą wydajnością w grach niż w przypadku układów Core i7-8700K czy Core i9-9900K, które są ponadto droższe.

Doniesienia o potężnej obniżce opierają się na slajdzie, który prawdopodobnie wyciekł z Intela. Na slajdzie widzimy, że Intel przewiduje iż na obniżki przeznaczy w bieżącymm roku 3 miliardy dolarów. Porównuje się przy tym do AMD, pokazując, że konkurent jest znacznie mniejszą firmą, której cały zysk netto wyniósł w ubiegłym roku 0,3 miliarda USD. Mimo swojej olbrzymiej przewagi finansowej i pozycji na rynku Intel woli najwyraźniej dmuchać na zimne i poważnie traktuje AMD, które od czasu premiery architektury Zen umacnia się na rynku.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Agencji Badań Medycznych ogłosiła wyniki konkursu na opracowanie polskiej terapii adoptywnej (CAR/CAR-T). W najbliższych dniach zostanie podpisana umowa o dofinansowanie, która rozpocznie bezprecedensowy w historii Polski program rozwoju ultranowoczesnej terapii onkologicznej.
      W ramach konkursu zgłosiły się dwa konsorcja naukowe, których liderami były Gdański Uniwersytet Medyczny oraz Warszawski Uniwersytet Medyczny. Grant wysokości 100 mln zł w ramach konkursu ABM przewidziany był jednak tylko dla jednego konsorcjum. Mimo iż zagraniczni eksperci oceniający wnioski konkursowe ocenili oba projekty bardzo wysoko, to wyraźną przewagę punktów uzyskało konsorcjum, którego liderem jest Warszawski Uniwersytet Medyczny, reprezentowany przez głównego badacza prof. dr. hab. Sebastiana Giebela.
      Zwycięskie konsorcjum składa się z jednostek umiejscowionych w całym kraju, a wśród instytucji tych znalazły się: lider konsorcjum Warszawski Uniwersytet Medyczny, Narodowy Instytut Onkologii im. Marii Skłodowskiej-Curie, Uniwersyteckie Centrum Kliniczne Warszawskiego Uniwersytetu Medycznego, Instytut Hematologii i Transfuzjologii, Szpital Kliniczny Przemienienia Pańskiego Uniwersytetu Medycznego im. Karola Marcinkowskiego w Poznaniu, Szpital Uniwersytecki nr 1 im. dr. Antoniego Jurasza, Uniwersytet Medyczny im. Karola Marcinkowskiego w Poznaniu, Pomorski Uniwersytet Medyczny w Szczecinie oraz Uniwersytet Medyczny w Łodzi. Konsorcjum ma jednak charakter otwarty i mogą dołączać do niego kolejne jednostki.
      Wprowadzenie do Polski terapii CAR-T cell jest ważne nie tylko z punku widzenia badań naukowych, ale i z punktu widzenia szans dla pacjentów. Wskazaniem do terapii są złośliwe chłoniaki i ostre białaczki, w przypadku których brak jest opcji terapeutycznej.
      Dotychczas terapia rekombinowanych przeciwciał CAR-T cell była w naszym kraju właściwie niedostępna, ponieważ jej jednorazowe podanie kosztuje ponad 1,5 mln zł. W Polsce zaledwie kilka osób miało szansę przejść takie leczenie. Obecnie, dzięki grantowi Agencji Badań Medycznych, terapia ta ma szanse na stałe pojawić się w Polsce.
      Jak podkreśla prezes Agencji Badań Medycznych dr Radosław Sierpiński, polscy naukowcy są gotowi, by tę technologię wytworzyć i wdrożyć na stałe do polskiego systemu ochrony zdrowia. Liczymy, że w ciągu kilku lat dzięki podjętym przez nas działaniom otrzyma ją kilkuset pacjentów: wszyscy, którzy będą kwalifikować się do leczenia.
      Immunoterapia CAR-T jest przykładem najbardziej spersonalizowanej formy terapeutycznej, ponieważ dla każdego pacjenta produkowany jest lek z jego własnych limfocytów. Terapię tę stosuje się u chorych, u których doszło do nawrotu choroby, poprzednie leczenie okazało się nieskuteczne, a także w sytuacji, kiedy ze względu na duże zaawansowanie nowotworu nie można przeprowadzić przeszczepu.
      Remisję choroby do stadium, w którym komórek nowotworu nie da się wykryć metodami laboratoryjnymi, udało się dzięki technologii CAR-T uzyskać u 60-70% chorych. W przypadku innych terapii szansa wyleczenia takich pacjentów jest bliska zeru.
      Lista wskazań do wykorzystania technologii CAR-T wciąż się wydłuża. Na świecie trwają obecnie badania kliniczne mające na celu ocenę skuteczności terapii CAR-T również w innych nowotworach hematologicznych, a także w guzach litych, takich jak rak płuc, rak piersi, glejak wielopostaciowy czy rak trzustki.
      Szacunki Agencji Oceny Technologii Medycznych pokazują, że koszt leczenia 50 pacjentów to ponad 70 mln złotych. Grant Agencji Badań Medycznych o wartości 100 mln zł zapewni leczenie ponadtrzykrotnie większej liczbie osób niż przy zastosowaniu produktów komercyjnych. Agencja Badań Medycznych ocenia, że technologia CAR-T może być nawet 10 razy tańsza niż obecnie, jeśli będzie wytwarzana w polskich ośrodkach. Jeżeli spadek ceny rzeczywiście będzie tak wyraźny, to realna może stać się także refundacja tej terapii.
      Środki uzyskane w ramach 100 mln zł grantu od ABM pozwolą na wyposażenie polskich laboratoriów, tak by w ciągu kilku lat były w stanie zaproponować polską technologię wielokrotnie tańszą i szerzej dostępną. Jak deklaruje prezes ABM, to projekt wieloletni i nawet po zakończeniu grantu z ABM dalej będziemy myśleli, jak możemy tę technologię w Polsce rozwijać. Mam nadzieję, że z czasem przełoży się to również na decyzje refundacyjne i wykorzystanie CAR-T stanie się stosowaną na szeroką skalę terapią w Polsce.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Cerebras Systems, twórca niezwykłego olbrzymiego procesora dla sztucznej inteligencji, poinformował, że jest on szybszy niż procesy fizyczne, które symuluje. W symulacji, składającej się z 500 milionów zmiennych CS-1 zmierzył się z superkomputerem Joule, 69. najpotężniejszą maszyną na świecie. I wykonał swoje zadanie 200-krotnie szybciej niż ona.
      O powstaniu niezwykłego procesora oraz wyzwaniach inżynieryjnych z nim związanych informowaliśmy na początku bieżącego roku. Wówczas jego twórcy obiecywali, że do końca roku przekonamy się o jego wydajności. I słowa dotrzymali.
      CS-1 symulował proces spalania w elektrowniach węglowych. I przeprowadził symulację tego procesu szybciej, niż zachodzi sam proces. Firma Cerebras i jej partnerzy z US National Energy Technology Center (NETL) mówią, że CS-1 jest znacznie szybszy od jakiegokolwiek superkomputera bazującego na tradycyjnych układach CPU czy GPU.
      Jak wyjaśnia dyrektor Cerebras, Andrew Feldman, prognozowanie pogody, projektowanie skrzydeł samolotu, przewidywanie rozkładu temperatur w reaktorze jądrowym i wiele innych złożonych problemów jest rozwiązywanych poprzez badanie ruchu cieczy w przestrzeni i czasie. W czasie takiej symulacji dzieli się przestrzeń na sześciany, modeluje ruch cieczy w każdym z sześcianów i określa interakcje pomiędzy sześcianami. W symulacji może być milion lub więcej sześcianów i 500 000 zmiennych.
      Przeprowadzenie odpowiednich obliczeń wymaga olbrzymiej mocy, wielu rdzeni, olbrzymiej ilości pamięci umieszczonej jak najbliżej rdzeni obliczeniowych, wydajnych połączeń pomiędzy rdzeniami oraz pomiędzy rdzeniami a układami pamięci. Wymaga też długotrwałego trenowania odpowiednich modeli sieci neuronowych.
      Układ CS-1 na pojedynczym kawałku krzemu mieści 400 000 rdzeni, 18 gigabajtów pamięci oraz łącza umożliwiające przesyłanie pomiędzy rdzeniami danych z prędkością 100 Pb/s, a przesył pomiędzy rdzeniami a układami pamięci odbywa się z prędkością 9 PB/s.
      Specjaliści z NETL postanowili porównać możliwości superkomputera Joule z możliwościami CS-1. Joule korzysta z 84 000 rdzeni CPU i do pracy potrzebuje 450 KW. Cerebras używa zaledwie 20 KW. Joule przeprowadził odpowiednie obliczenia w ciągu 2,1 milisekundy. CS-1 zajęły one 6 mikrosekund, był więc ponad 200-krotnie szybszy.
      Jak mówi Feldman, olbrzymia wydajność CS-1 niesie ze sobą dwa wnioski. Po pierwsze obecnie nie istnieje żaden superkomputer zdolny do pokonania CS-1 w rozwiązywaniu tego typu problemów. Wynika to z faktu, że takie symulacje nie skalują się dobrze. Dokładanie kolejnych rdzeni do współczesnych superkomputerów nie tylko nie pomoże, ale może nawet spowalniać tak wyspecjalizowane obliczenia. Dowiodło tego chociażby porównanie CS-1 i Joule'a. Superkomputer pracował najbardziej wydajnie, gdy używał 16 384 z 84 000 dostępnych rdzeni. Problemy takie wynikają z połączeń pomiędzy rdzeniami i pomiędzy rdzeniami a układami pamięci.
      Jeśli chcemy na przykład symulować układ składający się z zestawu 370x370x370 sześcianów to CS-1 mapuje warstwy na sąsiadujące ze sobą rdzenie. Komunikacja między rdzeniami odbywa się błyskawicznie, więc szybko wymieniają one dane dotyczące sąsiadujących sześcianów, a obliczenia dla każdej z warstw są przechowywane w znajdujących się na tym samym krzemie układach pamięci, więc rdzenie również mają do niej bezpośredni dostęp.
      Dodatkowo, jako że CS-1 jest w stanie przeprowadzić symulacje procesów fizycznych szybciej niż te procesy się odbywają, może zostać też wykorzystany do kontrolowania pracy złożonych systemów obliczeniowych.
      Feldman poinformował, że wśród klientów korzystających z SC-1 są m.in. GlaxoSmithKline, Argonne National Laboratory, Lawrence Livermore National Laboratory, Pittsburgh Supercomputing Centre oraz niewymienione z nazwy firmy i instytucje z branż wojskowej, wywiadowczej oraz przemysłu ciężkiego.
      Co więcej Cerebras ma już gotowego następcę CS-1. Został on wykonany w technologii 7nm (CS-1 zbudowano w technologi 16nm), korzysta z 40 GB pamięci (CS-1 z 20 GB) i 850 000 rdzeni (CS-1 ma 400 000 rdzeni).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Po raz pierwszy w historii udało się zdobyć klucz szyfrujący, którym Intel zabezpiecza poprawki mikrokodu swoich procesorów. Posiadanie klucza umożliwia odszyfrowanie poprawki do procesora i jej analizę, a co za tym idzie, daje wiedzę o luce, którą poprawka ta łata.
      W tej chwili trudno jest ocenić rzeczywisty wpływ naszego osiągnięcia na bezpieczeństwo. Tak czy inaczej, po raz pierwszy w historii Intela udało się doprowadzić do sytuacji, gdy strona trzecia może wykonać własny mikrokod w układach tej firmy oraz przeanalizować poprawki dla kości Intela, mówi niezależny badacz Maxim Goryachy. To właśnie on wraz z Dmitrym Sklyarovem i Markiem Ermolovem, którzy pracują w firmie Positive Technolgies, wyekstrahowali klucz szyfrujący z układów Intela. Badacze poinformowali, że można tego dokonać w przypadku każdej kości – Celerona, Pentium i Atoma – opartej na mikroarchitekturze Goldmont.
      Wszystko zaczęło się trzy lata temu, gdy Goryachy i Ermolov znaleźli krytyczną dziurę Intel SA-00086, dzięki której mogli wykonać własny kod m.in. w Intel Management Engine. Intel opublikował poprawkę do dziury, jednak jako że zawsze można przywrócić wcześniejszą wersję firmware'u, nie istnieje całkowicie skuteczny sposób, by załatać tego typu błąd.
      Przed pięcioma miesiącami badaczom udało się wykorzystać tę dziurę do dostania się do trybu serwisowego „Red Unlock”, który inżynierowie Intela wykorzystują do debuggowania mikrokodu. Dzięki dostaniu się do Red Unlock napastnicy mogli
      zidentyfikować specjalny obszar zwany MSROM (microcode sequencer ROM). Wówczas to rozpoczęli trudną i długotrwałą procedurę odwrotnej inżynierii mikrokodu. Po wielu miesiącach analiz zdobyli m.in. klucz kryptograficzny służący do zabezpieczania poprawek. Nie zdobyli jednak kluczy służących do weryfikacji pochodzenia poprawek.
      Intel wydał oświadczenie, w którym zapewnia, że opisany problem nie stanowi zagrożenia, gdyż klucz używany do uwierzytelniania mikrokodu nie jest zapisany w chipie. Zatem napastnik nie może wgrać własnej poprawki.
      Faktem jest, że w tej chwili napastnicy nie mogą wykorzystać podobnej metody do przeprowadzenia zdalnego ataku na procesor Intela. Wydaje się jednak, że ataku można by dokonać, mając fizyczny dostęp do atakowanego procesora. Nawet jednak w takim przypadku wgranie własnego złośliwego kodu przyniosłoby niewielkie korzyści, gdyż kod ten nie przetrwałby restartu komputera.
      Obecnie najbardziej atrakcyjną możliwością wykorzystania opisanego ataku wydaje się hobbistyczne użycie go do wywołania różnego typu zmian w pracy własnego procesora, przeprowadzenie jakiegoś rodzaju jailbreakingu, podobnego do tego, co robiono z urządzeniami Apple'a czy konsolami Sony.
      Atak może posłużyć też specjalistom ds. bezpieczeństwa, który dzięki niemu po raz pierwszy w historii będą mogli dokładnie przeanalizować, w jaki sposób Intel poprawia błędy w swoim mikrokodzie lub też samodzielnie wyszukiwać takie błędy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Eksperci z Rocky Mountain Institute opublikowali raport, z którego dowiadujemy się, że koszty produkcji energii z węgla osiągnęły punkt zwrotny i obecnie energia ta na większości rynków przegrywa konkurencję cenową z energią ze źródeł odnawialnych. Z analiz wynika, że już w tej chwili koszty operacyjne około 39% wszystkich światowych elektrowni węglowych są wyższe niż koszty wybudowania od podstaw nowych źródeł energii odnawialnej.
      Sytuacja ekonomiczna węgla będzie błyskawicznie się pogarszała. Do roku 2025 już 73% elektrowni węglowych będzie droższych w utrzymaniu niż budowa zastępujących je odnawialnych źródeł energii. Autorzy raportu wyliczają, że gdyby nagle cały świat podjął decyzję o wyłączeniu wszystkich elektrowni węglowych i wybudowaniu w ich miejsce odnawialnych źródeł energii, to przeprowadzenie takiej operacji stanie się opłacalne już za dwa lata.
      Szybsze przejście od węgla do czystej energii jest w zasięgu ręki. W naszym raporcie pokazujemy, jak przeprowadzić taką zmianę, by z jednej strony odbiorcy energii zaoszczędzili pieniądze, a z drugiej strony, by pracownicy i społeczności żyjące obecnie z energii węglowej mogli czerpać korzyści z energetyki odnawialnej, mówi Paul Bodnar, dyrektor Rocky Mountain Institute.
      Autorzy raportu przeanalizowali sytuację ekonomiczną 2472 elektrowni węglowych na całym świecie. Wzięli też pod uwagę koszty wytwarzania energii ze źródeł odnawialnych oraz jej przechowywania. Na podstawie tych danych byli w stanie ocenić opłacalność energetyki węglowej w 37 krajach na świecie, w których zainstalowane jest 95% całej światowej produkcji energii z węgla. Oszacowali też koszty zastąpienia zarówno nieopłacalnej obecnie, jak o opłacalnej, energetyki węglowej przez źródła odnawialne.
      Z raportu dowiadujmy się, że gdyby na skalę światową zastąpić nieopłacalne źródła energii z węgla źródłami odnawialnymi, to w bieżącym roku klienci na całym świecie zaoszczędziliby 39 miliardów USD, w 2022 roczne oszczędności sięgnęłyby 86 miliardów, a w roku 2025 wzrosłyby do 141 miliardów. Gdyby jednak do szacunków włączyć również opłacalne obecnie elektrownie węglowe, innymi słowy, gdybyśmy chcieli już teraz całkowicie zrezygnować z węgla, to tegoroczny koszt netto takiej operacji wyniósłby 116 miliardów USD. Tyle musiałby obecnie świat zapłacić, by już teraz zrezygnować z generowania energii elektrycznej z węgla. Jednak koszt ten błyskawicznie by się obniżał. W roku 2022 zmiana taka nic by nie kosztowała (to znaczy koszty i oszczędności by się zrównoważyły), a w roku 2025 odnieślibyśmy korzyści finansowe przekraczające 100 miliardów dolarów w skali globu.
      W Unii Europejskiej już w tej chwili nieopłacalnych jest 81% elektrowni węglowych. Innymi słowy, elektrownie te przeżywałyby kłopoty finansowe, gdyby nie otrzymywały dotacji z budżetu. Do roku 2025 wszystkie europejskie elektrownie węglowe będą przynosiły straty. W Chinach nieopłacalnych jest 43% elektrowni węglowych, a w ciągu najbliższych 5 lat nieopłacalnych będzie 94% elektrowni węglowych. W Indiach zaś trzeba dopłacać obecnie do 17% elektrowni, a w roku 2025 nieopłacalnych będzie 85% elektrowni.
      Co ważne, w swoich wyliczeniach dotyczących opłacalności elektrowni węglowych analitycy nie brali pod uwagę zdrowotnych i środowiskowych kosztów spalania węgla.
      Energia węglowa szybko staje się nieopłacalna i to nie uwzględniając kosztów związanych z prawem do emisji i regulacjami odnośnie zanieczyszczeń powietrza. Zamknięcie elektrowni węglowych i zastąpienie ich tańszymi alternatywami nie tylko pozwoli zaoszczędzić pieniądze konsumentów i podatników, ale może też odegrać znaczną rolę w wychodzeniu gospodarki z kryzysu po pandemii, mówi Matt Gray stojący na czele Carbon Tracker Initiative.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Potwierdziły się plotki mówiące o zamiarach porzucenia przez Apple'a architektury x86 i całkowitym przejściu na architekturę ARM. Wczoraj, podczas WWDC 2020, firma oficjalnie ogłosiła rozpoczęcie dwuletniego okresu przechodzenia na ARM. Koncern z Cupertino zaoferuje odpowiednie SDK producentom oprogramowania, a pierwszy komputer z procesorem ARM ma trafić do sprzedaży jeszcze przed końcem bieżącego roku.
      Dyrektor wykonawczy Apple'a, Tim Cook, poinformował, że firma wciąż będzie oferowała nowe modele komputerów z procesorami Intela, jednak w ciągu dwóch lat każdy nowy model będzie też sprzedawany w wersji z procesorem ARM. Ponadto wszystkie przyszłe systemy operacyjne, od edycji MacOS 11 Big Sur będą wspierały architekturę ARM i x86.
      Koncern poinformował też, że już całe jego oprogramowanie, włącznie z takimi programami jak Final Cut czy Logic Pro, ma swoje wersje dla ARM. Firma współpracuje też z Microsoftem i Adobe nad przygotowaniem odpowiednich wersji programów tych firm na komputery Mac z układami ARM. Trwają też prace nad emulatorem Rosetta 2, który pozwoli na uruchamianie programów dla x86 na komputerach z ARM. Pierwsze wersje demonstracyjne takiego oprogramowania jak Maya czy Shadow of the Tomb Raider, wyglądają bardzo obiecująco.
      Apple będzie samodzielnie przygotowywało swoje procesory ARM. Koncern informuje, że powodem podjęcia takiej decyzji była chęć zwiększenia wydajności w przeliczeniu na wat energii. Warto tutaj zauważyć, że samodzielny rozwój i produkcja procesorów pozwolą Apple'owi jeszcze bardziej zmniejszyć zależność od zewnętrznych dostawców i w jeszcze większym stopniu kontrolować sprzedawane przez siebie sprzęt i oprogramowanie.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...