Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Nadchodzą ciężkie czasy dla AMD

Recommended Posts

Wojna cenowa z Intelem oraz zakup ATI znacząco odbiły się na finansach AMD. Kłopoty finansowe tej firmy spowodowały, że pojawiły się plotki o jej możliwym przejęciu przez duże grupy finansowe czy inne koncerny, jak IBM.

Przez kilka ostatnich lat AMD odbierało Intelowi kolejne fragmenty rynku. Obecnie należy do niej ponad 25% rynku procesorów x86, a firma zapowiada, że ma zamiar zdobyć kolejne 5 procent. W roku 2006 Intel przeszedł do ofensywy: pokazał znakomitą mikroarchitekturę Core 2 oraz znacząco obniżył ceny swoich procesorów. Rozpoczęła się wojna cenowa, którą odczuły obie firmy.

Jednak jej przebieg jest szczególnie dramatyczny w przypadku AMD. Akcje tego przedsiębiorstwa straciły w ciągu roku aż 60% wartości. Inwestorzy obawiają się bowiem, że dalsza rywalizacja na ceny będzie się odbywała kosztem zmniejszenia marginesu zysków. Boją się też, że AMD, próbując dotrzymać kroku Intelowi, wydaje zbyt dużo jak na swoje możliwości.

Obawy te wydaje się potwierdzać Stephen Kleynhans, wiceprezes ds. badań firmy analitycznej Gartner: AMD jako firma ma wystarczająco silną pozycję, by przetrwać. Sądzę jednak, że czeka ją kilka ciężkich lat. Mają dobre technologie, ale to rzecz bardzo ulotna. W dzisiejszych czasach przewaga technologiczna może zostać zniwelowana w ciągu kilku kwartałów – mówi Kleynhans.

Z kolei obaw o kondycję firmy nie mają najwyraźniej posiadacze akcji Intela. Te w 2006 roku straciły na wartości jedynie 4%. Układy z serii Core 2 pozwoliły na zahamowanie postępów AMD, które wciąż zyskuje na rynku procesorów dla notebooków i desktopów, ale znacznie wolniej, niż dotychczas. Za to na bardzo opłacalnym rynku dla serwerów ofensywa AMD została całkowicie powstrzymana.

Dużym zwycięstwem AMD była umowa z Dellem, który do niedawna wykorzystywał tylko i wyłącznie procesory Intela. Na ten sukces Intel odpowiedział podpisaniem umowy z producentem serwerów, firmą Sun Microsystems, która dotychczas korzystała jedynie z CPU produkowane przez siebie i AMD. Zauważyć przy tym należy, że Sun zaczyna znowu liczyć się na rynku, a Dell – dotychczasowy lider – ma coraz większe kłopoty z utrzymaniem wiodącej pozycji.

Mario Rivas, wiceprezes AMD ds. produktów obliczeniowych mówi, że pięć lata temu w ogóle nie istnieliśmy na rynku serwerów, a teraz jesteśmy liczącym się graczem, jednak analitycy nie są takimi optymistami.

W 2006 roku firma zanotowała stratę w wysokości 166 milionów dolarów i nie potrafiła zarysować przekonującej strategii na przyszłość, która pozwoliłaby wyróżnić jej produkty na tle oferty Intela. Przed kilkoma dniami AMD poinformowało, że nie osiągnie zakładanych na bieżący kwartał wpływów w wysokości 1,6-1,7 miliarda USD.

O kondycji firmy świadczy podsumowanie ubiegłego roku. Na koniec grudnia koncern miał 1,5 miliarda USD w gotówce i 3,8 miliarda dolarów długu, w tym 2,2 miliarda związanego z przejęciem ATI. Rok 2005 AMD zamykało z 1,8 miliarda USD w gotówce i długiem w wysokości 1,4 mld.

W związku z wysokim długiem AMD może mieć problem z uzyskaniem pożyczek i nie będzie miało jak sfinansować wydatków kapitałowych w wysokości 2,5 miliarda dolarów zaplanowanych na rok bieżący.

Główny konkurent AMD, Intel, zakończył ubiegły rok w znacznie lepszej kondycji. Ma 10 miliardów dolarów gotówki i 2 miliardy długu. Zyski firmy spadły co prawda o 42%, ale spadek spowodowany był m.in. budową nowych fabryk, a inwestycje te szybko zaczną przynosić dochód.

Znaczące są też inwestycje obu firm w prace badawczo-rozwojowe. Intel na badania wydaje 5,9 miliarda dolarów (w 2005 roku było to 5,1 mld), czyli 17% swoich dochodów. AMD wydało 1,2 miliarda, czyli 21% dochodów.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Pojawiły się pogłoski, że Intel ma zamiar znacząco obniżyć ceny procesorów 9. generacji. Jak donosi TweakTown, w obliczu zbliżającej się premiery procesorów Cascade Lake-X koncern ma zamiar obciąć ceny układów Skylake-X nawet o 50%. W ten sposób firma chce szybciej opróżnić magazyny i lepiej konkurować z AMD.
      Jeśli rzeczywiście dojdzie do tak znaczącej obniżki, to najprawdopodobniej Intel będzie musiał dopłacić swoim dystrybutorom i innym parterom handlowym. To obniży firmowe zyski, jednak pozwoli lepiej konkurować z AMD.
      Obecnie AMD oferuje lepsze ceny procesorów z przeliczeniu na rdzeń, dlatego też wielu graczy wybiera układy Ryzen 5 3600/X lub Ryzen 7 3700X i cieszy się lepszą wydajnością w grach niż w przypadku układów Core i7-8700K czy Core i9-9900K, które są ponadto droższe.
      Doniesienia o potężnej obniżce opierają się na slajdzie, który prawdopodobnie wyciekł z Intela. Na slajdzie widzimy, że Intel przewiduje iż na obniżki przeznaczy w bieżącymm roku 3 miliardy dolarów. Porównuje się przy tym do AMD, pokazując, że konkurent jest znacznie mniejszą firmą, której cały zysk netto wyniósł w ubiegłym roku 0,3 miliarda USD. Mimo swojej olbrzymiej przewagi finansowej i pozycji na rynku Intel woli najwyraźniej dmuchać na zimne i poważnie traktuje AMD, które od czasu premiery architektury Zen umacnia się na rynku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych.
      Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim.
      Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe.
      Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na MIT powstał nowoczesny mikroprocesor z tranzystorami z nanorurek węglowych. Urządzenie można wyprodukować za pomocą technik używanych obecnie przez przemysł półprzewodnikowy, co ma olbrzymie znaczenie dla ewentualnego wdrożenia.
      Nanorurki węglowe są od dawna przedmiotem zainteresowań, gdyż dają nadzieję na zbudowanie kolejnej generacji komputerów po tym, gdy układów krzemowych nie będzie można już miniaturyzować. Tranzystory polowe z nanorurek węglowych (CNFET) mogą mieć bardzo obiecujące właściwości. Z dotychczasowych badań wynika, że powinny być one około 10-krotnie bardziej efektywne pod względem zużycia energii i pozwolić na przeprowadzanie obliczeń ze znacznie większą prędkością. Problem jednak w tym, że przy masowej produkcji w nanorurkach pojawia się tak wiele defektów, że nie można ich w praktyce wykorzystać.
      Naukowcy z MIT opracowali nową technikę, która znacząco zmniejsza liczbę defektów i daje pełną kontrolę nad produkcję CNFET. Co ważne, technika ta wykorzystuje procesy już używane w przemyśle półprzewodnikowym. Dzięki niej na MIT wyprodukowano 16-bitowy mikroprocesor składający się z 14 000 CNFET, który jest w stanie wykonywać te same obliczenia co tradycyjny procesor.
      Nowy procesor oparto na architekturze RISC-V. Testy wykazały, że jest on zdolny do wykonania pełnego zestawu instrukcji dla tej technologii.
      To, jak dotychczas, najbardziej zaawansowany chip wykonany w nowym procesie nanotechnologicznym, który daje nadzieję na wysoką wydajność i efektywność energetyczną, mówi współautor badań, profesor Max M. Shulaker. Krzem ma swoje ograniczenia. Jeśli chcemy coraz szybszych komputerów, to węglowe nanorurki są najbardziej obiecującym materiałem. Nasze badania pokazują zupełnie nowy sposób budowy układów scalonych z węglowymi nanorurkami.
      Shulaker i jego zespół od dawna pracują nad układami scalonymi z CNFET. Przed sześcioma laty byli w stanie zaprezentować procesor złożony ze 178 CNFET, który mógł pracować na pojedynczym bicie danych. Od tamtego czasu uczeni skupili się na rozwiązaniu trzech kluczowych problemów: defektach materiałowych, niedociągnięciach produkcyjnych oraz problemach funkcjonalnych.
      Największym problemem było uzyskanie nanorurek odpowiedniej jakości. Żeby CNFET działał bez zakłóceń, musi bez problemów przełączać się pomiędzy stanem 0 i 1, podobnie jak tradycyjny tranzystor. Jednak zawsze podczas produkcji powstanie jakaś część nanorurek, które będą wykazywały właściwości metalu, a nie półprzewodnika. Takie nanorurki czynią CNFET całkowicie nieprzydatnym. Zaawansowane układy scalone, by być odpornymi na obecność wadliwych nanorurek i móc szybko wykonywać zaawansowane obliczenia, musiałyby korzystać z nanorurek o czystości sięgającej 99,999999%. Obecnie jest to niemożliwe do osiągnięcia.
      Naukowcy z MIT opracowali technikę nazwaną DREAM (designing resilency against metallic CNT), która tak pozycjonuje metaliczne CNFET, że nie zakłócają one obliczeń. Dzięki temu zmniejszyli wymagania dotyczące czystości nanorurek aż o cztery rzędy wielkości. To zaś oznacza, że do wyprodukowania w pełni sprawnego układu potrzebują nanorurek o czystości sięgającej 99,99%, a to jest obecnie możliwe.
      Uczeni przeanalizowali różne kombinacje bramek logicznych i zauważyli, że metaliczne nanorurki węglowe nie wpływają na nie w ten sam sposób. Okazało się, że pojedyncza metaliczna nanorurki w bramce A może uniemożliwić komunikację pomiędzy nią, a bramką B, ale już liczne metaliczne nanorurki w bramce B nie wpływają negatywnie na jej możliwości komunikacji z żadną bramką. Przeprowadzili więc symulacje, by odnaleźć wszystkie możliwe kombinacje bramek, które byłyby odporne na obecność wadliwych nanorurek. Podczas projektowania układu scalonego brano pod uwagę jedynie te kombinacje. Dzięki technice DREAM możemy po prostu kupić komercyjne dostępne nanorurki, umieścić je na plastrze i stworzyć układ scalony, nie potrzebujemy żadnych specjalnych zabiegów, mówi Shulaker.
      Produkcja CNFET rozpoczyna się od nałożenia znajdujących się w roztworze nanorurek na podłoże z predefiniowanym architekturą układu. Jednak nie do uniknięcia jest sytuacja, w której część nanorurek pozbija się w grupy, tworząc rodzaj dużych cząstek zanieczyszczających układ scalony. Poradzono sobie z tym problemem tworząc technikę RINSE (removal of incubated nanotubes through selective exfoliation). Na podłoże nakłada się wcześniej związek chemiczny, który ułatwia nanorurkom przyczepianie się do niego. Następnie, już po nałożeniu nanorurek, całość pokrywana jest polimerem i zanurzana w specjalnym rozpuszczalniku. Rozpuszczalnik zmywa polimer, a ten zabiera ze sobą pozbijane w grupy nanorurki. Te zaś nanorurki, które nie zgrupowały się z innymi, pozostają przyczepione do podłoża. Technika ta aż 250-kronie zmniejsza zagęszczenie zbitek nanorurek w porównaniu z alternatywnymi metodami ich usuwania.
      Poradzono sobie też z ostatnim problemem, czyli wytworzeniem tranzystorów typu N i typu P. Zwykle produkcja tych tranzystorów z węglowych nanorurek kończyła się uzyskaniem urządzeń o bardzo różniącej się wydajności. Problem rozwiązano za pomocą nowej techniki o nazwie MIXED (metal interface engineering crossed with electrostatic doping), dzięki której możliwe jest precyzyjna optymalizacja procesorów do wymaganych zadań. Technika ta polega na dołączeniu do każdego tranzystora, w zależności czy ma być on P czy N, odpowiedniego metalu, platyny lub tytanu. Następnie tranzystory są pokrywane tlenkiem, co pozwala na ich dostosowanie do zadań, jakie będą spełniały. Można więc osobno dostroić je do pracy w zastosowaniach w wysoko wydajnych serwerach, a osobno do energooszczędnych implantów medycznych.
      Obecnie, w ramach programu prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych), wspomniane techniki produkcji układów scalonych z węglowych nanorurek wdrażane są w fabrycznych liniach produkcyjnych. W tej chwili nikt nie potrafi powiedzieć, kiedy w sklepach pojawią się pierwsze procesory z CNFET. Shulaker mówi, że może się to stać już w ciągu najbliższych pięciu lat. Sądzimy, że teraz to już nie jest pytanie czy, ale pytanie kiedy, mówi uczony.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze IBM-a postawili sobie ambitny cel. Chcą co roku dwukrotnie zwiększać wydajność komputerów kwantowych tak, by w końcu były one szybsze lub bardziej wydajne niż komputery klasyczne. Podczas tegorocznych targów CES IBM pokazał przełomowe urządzenie: IBM Q System One, pierwszy komputer kwantowy, który ma być gotowy do komercyjnego użytku.
      Celem IBM-a jest coś, co nazywają „Quantum Advantage” (Kwantowa przewaga). Zgodnie z tym założeniem komputery kwantowe mają zyskać „znaczną” przewagę nad komputerami klasycznymi. Przez „znaczną” rozumie się tutaj system, który albo będzie setki lub tysiące razy szybszy od komputerów kwantowych, albo będzie wykorzystywał niewielki ułamek pamięci potrzebny maszynom kwantowym lub też będzie w stanie wykonać zadania, jakich klasyczne komputery wykonać nie są.
      Wydajność komputera kwantowego można opisać albo za pomocą tego, jak sprawują się poszczególne kubity (kwantowe bity), albo też jako ogólną wydajność całego systemu.
      IBM poinformował, że Q System One może pochwalić się jednym z najniższych odsetków błędów, jakie kiedykolwiek zmierzono. Średni odsetek błędów na dwukubitowej bramce logicznej wynosi mniej niż 2%, a najlepszy zmierzony wynik to mniej niż 1%. Ponadto system ten jest bliski fizycznemu limitowi czasów koherencji, który w w przypadku Q System One wyniósł średnio 73 ms.To oznacza, że błędy wprowadzane przez działanie urządzenia są dość małe i zbliżamy się do osiągnięcia minimalnego możliwego odsetka błędów, oświadczyli badacze IBM-a.
      Błękitny Gigant stworzył też Quantum Volume, system pomiaru wydajności komputera kwantowego jako całości. Bierze on pod uwagę zarówno błędy na bramkach, błędyh pomiarów czy wydajność kompilatora. Jeśli chcemy osiągnąć Quantum Advantage w latach 20. XXI wieku, to każdego roku wartość Quantum Volume musi się co najmniej podwajać, stwierdzili badacze. Na razie udaje im się osiągnąć cel. Wydajność pięciokubitowego systemu Tenerife z 2017 roku wynosiła 4. W 2018 roku 20-kubitowy system IBM Q osiągnął w teście Quantum Volume wynik 8. Najnowszy zaś Q System One nieco przekroczył 16.
      Sądzimy, że obecnie przyszłość komputerów to przyszłość komputerów kwantowych, mówią specjaliści z IBM-a.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Po tym, jak na początku bieżącego roku firma GlobalFoundries przestała produkować układy scalone na zlecenie, na rynku najbardziej zaawansowanych chipów pozostały jedynie trzy firmy. Największą z nich jest tajwańska TSMC, drugi pod względem wielkości jest Samsung, który przeżywa jednak kłopoty. Trzecia firma to Intel, które nie odniosła na tym rynku większych sukcesów i właśnie pojawiły się pogłoski, że może się z niego wycofać.
      Jak donosi serwis DigiTimes, powołując się na źródła w tajwańskim przemyśle półprzewodników, nie będzie zaskoczeniem, jeśli Intel zaprzestanie produkcji układów scalonych na zlecenie. Z informacji przekazanej przez źródła wynika, że Intel nigdy nie stanowił poważnej konkurencji dla TSMC i Samsunga. Firma oferowała wyższe ceny i nie przyciągnęła ani wielkich klientów, ani nie składano w niej dużych zamówień.
      Tajwańscy eksperci działający na rynku półprzewodników mówią, że Intel nigdy tak naprawdę nie przykładał dużej wagi do konkurowania z TSMC i Samsungiem na rynku układów calonych na zlecenie. Być może przedstawiciele koncernu nigdy nie wierzyli w sukces na rynku, który w ponad 50% jest opanowany przez TSMC, a Samsung i Globalfoundries skupiały się na utrzymaniu swojej pozycji. Wyższe ceny oraz słabszy łańcuch dostaw również nie pomagały Intelowi w rynkowej walce.
      Analizy dotyczące rynku półprzewodników przewidują, że w 2019 roku z powodu spadku cen układów pamięci i wojny handlowej pomiędzy USA a Chinami, inwestycje na tym rynku zmniejszą się o 8%. Wcześniej przewidywano 7-procentowy wzrost. Jednak na Tajwanie sytuacja będzie zupełnie inna. Tam inwestycje mają wzrosnąć o 24%, głównie dzięki budowie przez TSMC fabryk wytwarzających kości w technologii 5 nanometrów.

      « powrót do artykułu
×
×
  • Create New...