Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Nadchodzą ciężkie czasy dla AMD

Recommended Posts

Wojna cenowa z Intelem oraz zakup ATI znacząco odbiły się na finansach AMD. Kłopoty finansowe tej firmy spowodowały, że pojawiły się plotki o jej możliwym przejęciu przez duże grupy finansowe czy inne koncerny, jak IBM.

Przez kilka ostatnich lat AMD odbierało Intelowi kolejne fragmenty rynku. Obecnie należy do niej ponad 25% rynku procesorów x86, a firma zapowiada, że ma zamiar zdobyć kolejne 5 procent. W roku 2006 Intel przeszedł do ofensywy: pokazał znakomitą mikroarchitekturę Core 2 oraz znacząco obniżył ceny swoich procesorów. Rozpoczęła się wojna cenowa, którą odczuły obie firmy.

Jednak jej przebieg jest szczególnie dramatyczny w przypadku AMD. Akcje tego przedsiębiorstwa straciły w ciągu roku aż 60% wartości. Inwestorzy obawiają się bowiem, że dalsza rywalizacja na ceny będzie się odbywała kosztem zmniejszenia marginesu zysków. Boją się też, że AMD, próbując dotrzymać kroku Intelowi, wydaje zbyt dużo jak na swoje możliwości.

Obawy te wydaje się potwierdzać Stephen Kleynhans, wiceprezes ds. badań firmy analitycznej Gartner: AMD jako firma ma wystarczająco silną pozycję, by przetrwać. Sądzę jednak, że czeka ją kilka ciężkich lat. Mają dobre technologie, ale to rzecz bardzo ulotna. W dzisiejszych czasach przewaga technologiczna może zostać zniwelowana w ciągu kilku kwartałów – mówi Kleynhans.

Z kolei obaw o kondycję firmy nie mają najwyraźniej posiadacze akcji Intela. Te w 2006 roku straciły na wartości jedynie 4%. Układy z serii Core 2 pozwoliły na zahamowanie postępów AMD, które wciąż zyskuje na rynku procesorów dla notebooków i desktopów, ale znacznie wolniej, niż dotychczas. Za to na bardzo opłacalnym rynku dla serwerów ofensywa AMD została całkowicie powstrzymana.

Dużym zwycięstwem AMD była umowa z Dellem, który do niedawna wykorzystywał tylko i wyłącznie procesory Intela. Na ten sukces Intel odpowiedział podpisaniem umowy z producentem serwerów, firmą Sun Microsystems, która dotychczas korzystała jedynie z CPU produkowane przez siebie i AMD. Zauważyć przy tym należy, że Sun zaczyna znowu liczyć się na rynku, a Dell – dotychczasowy lider – ma coraz większe kłopoty z utrzymaniem wiodącej pozycji.

Mario Rivas, wiceprezes AMD ds. produktów obliczeniowych mówi, że pięć lata temu w ogóle nie istnieliśmy na rynku serwerów, a teraz jesteśmy liczącym się graczem, jednak analitycy nie są takimi optymistami.

W 2006 roku firma zanotowała stratę w wysokości 166 milionów dolarów i nie potrafiła zarysować przekonującej strategii na przyszłość, która pozwoliłaby wyróżnić jej produkty na tle oferty Intela. Przed kilkoma dniami AMD poinformowało, że nie osiągnie zakładanych na bieżący kwartał wpływów w wysokości 1,6-1,7 miliarda USD.

O kondycji firmy świadczy podsumowanie ubiegłego roku. Na koniec grudnia koncern miał 1,5 miliarda USD w gotówce i 3,8 miliarda dolarów długu, w tym 2,2 miliarda związanego z przejęciem ATI. Rok 2005 AMD zamykało z 1,8 miliarda USD w gotówce i długiem w wysokości 1,4 mld.

W związku z wysokim długiem AMD może mieć problem z uzyskaniem pożyczek i nie będzie miało jak sfinansować wydatków kapitałowych w wysokości 2,5 miliarda dolarów zaplanowanych na rok bieżący.

Główny konkurent AMD, Intel, zakończył ubiegły rok w znacznie lepszej kondycji. Ma 10 miliardów dolarów gotówki i 2 miliardy długu. Zyski firmy spadły co prawda o 42%, ale spadek spowodowany był m.in. budową nowych fabryk, a inwestycje te szybko zaczną przynosić dochód.

Znaczące są też inwestycje obu firm w prace badawczo-rozwojowe. Intel na badania wydaje 5,9 miliarda dolarów (w 2005 roku było to 5,1 mld), czyli 17% swoich dochodów. AMD wydało 1,2 miliarda, czyli 21% dochodów.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Od dekad elastyczna elektronika była niewielką niszą. Teraz może być gotowa, by wejść do mainstream'u, stwierdził Rakesh Kumar, lider zespołu, który stworzył plastikowy procesor. O elektronice zintegrowanej w praktycznie każdym przedmiocie, od podkoszulków poprzez butelki po owoce, słyszymy od lat. Dotychczas jednak plany jej rozpowszechnienia są dalekie od realizacji, a na przeszkodzi stoi brak elastycznego, plastikowego, wydajnego i taniego procesora, który można by masowo produkować.
      Wiele przedsiębiorstw próbowało stworzyć takie urządzenie i im się nie udało. Według naukowców z amerykańskiego University of Illinois Urbana-Champaign i specjalistów z brytyjskiej firmy PragmatIC Semiconductor, problem w tym, że nawet najprostszy mikrokontroler jest zbyt złożony, by można go było masowo wytwarzać na plastikowym podłożu.
      Amerykańsko-brytyjski zespół zaprezentował właśnie uproszczony, ale w pełni funkcjonalny, plastikowy procesor, który można masowo produkować bardzo niskim kosztem. Przygotowano dwie wersje procesora: 4- i 8-bitową. Na substracie z 4-bitowymi układami, których koszt masowej produkcji liczyłby się dosłownie w groszach, działa 81% procesorów. To wystarczająco dobry wynik, by wdrożyć masową produkcję.
      Procesory wyprodukowano z cienkowarstwowego tlenku indowo-galowo-cynkowego (IGZO), dla którego podłożem był plastik. Innowacja polegała zaś na stworzeniu od podstaw nowej mikroarchitektury – Flexicore.Musiała być maksymalnie uproszczona, by sprawdziła się w na plastiku. Dlatego zdecydowano się na układy 4- i 8-bitowe zamiast powszechnie wykorzystywanych obecnie 16- i 32-bitowych. Naukowcy rozdzielili moduły pamięci przechowującej instrukcje od pamięci przechowującej dane. Zredukowano również liczbę i stopień złożoności instrukcji, jakie procesor jest w stanie wykonać. Dodatkowym uproszczeniem jest wykonywanie pojedynczej instrukcji w jednym cyklu zegara.
      W wyniku wszystkich uproszczeń 4-bitowy FlexiCore składa się z 2104 podzespołów. To mniej więcej tyle samo ile tranzystorów posiadał procesor Intel 4004 z 1971 roku. I niemal 30-krotnie mniej niż konkurencyjny PlasticARM zaprezentowany w ubiegłym roku. Uproszczenie jest więc ogromne. Stworzono też procesor 8-bitowy, jednak nie sprawuje się on tak dobrze, jak wersja 4-bitowa.
      Obecnie trwają testy plastikowych plastrów z procesorami. Są one sprawdzane zarówno pod kątem wydajności, jak i odporności na wyginanie. Jednocześnie twórcy procesorów prowadzą prace optymalizacyjne, starając się jak najlepiej dostosować architekturę do różnych zadań. Jak poinformował Kumar, badania już wykazały, że można znacznie zredukować pobór prądu, nieco zbliżając do siebie poszczególne bramki.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Prowadzone przez wiele lat badania Age-Related Eye Disease Studies (AREDS i AREDS2) wykazały, że odpowiednie suplementy spowalniają postęp zwyrodnienia plamki żółtej (AMD) najpowszechniejszej przyczyny utraty wzroku w starszym wieku. Naukowcy z Narodowych Instytuów Zdrowia (NIH) przeanalizowali dane z 10 lat AREDS2. Wykazali, że suplement, w którym beta-karoten zastąpili luteiną i zeaksantyną nie tylko zmniejsza ryzyko nowotworu płuc – osiągnięto to dzięki pozbyciu się beta-karotenu – ale bardziej efektywnie zmniejsza ryzyko AMD niż suplement zawierający beta-karoten.
      Dwa wcześniejsze wspierane przez NIH badania wykazały, że beta-karoten zwiększa ryzyko raka płuc u palaczy. Dlatego też naszym celem w badania AREDS2 było opracowanie równie efektywnej formuły dla każdego, niezależnie od tego, czy jest palaczem, czy też nie, mówi główna autorka raportu, doktor Emily Chew, dyrektor Wydziału Epidemiologii i Zastosowań Klinicznych w Narodowym Instytucie Oka (National Eye Institute, NEI). Prowadzone przez 10 lat badania wykazały, że nowy skład jest bardziej bezpieczny i w większym stopniu spowalnia postępy AMD.
      Oryginalne badania AREDS rozpoczęto w 1996 roku. Wykazały one, że suplement składający się z 500 mg witaminy C, 400 jednostek witaminy E, 2 mg miedzi, 80 mg cynku i 15 mg beta-karotenu znacząco spowalnia postępy AMD od postaci umiarkowanej do zaawansowanej. Jednak prowadzone jednocześnie dwa inne badania wykazały, że osoby, które palą papierosy i przyjmują beta-karoten są narażone na znacznie większe niż spodziewane ryzyko raka płuc.
      W 2006 roku rozpoczęły się badania AREDS2, w ramach których beta-karoten z AREDS zastąpiono 10 mg luteiny i 2 mg zeaksantyny. Luteina i zeaksantyna to antyoksydanty obecne w siatkówce. Grupą użytą do porównania w AREDS2 były osoby, które nigdy nie paliły lub rzuciły palenie. Osobom tym podawano pierwotną formułę, z beta-karotenem. Po pięciu latach badań stwierdzono, że luteina i zeaksantyna nie zwiększają ryzyka raka płuc, a nowa formuła zmniejsza ryzyko AMD o około 26%. Pod koniec badań wszystkim uczestnikom AREDS2 zaoferowano suplement z nową formułą.
      Autorzy najnowszego raportu prześledzili dalsze losy 3883 z 4203 osób, które wzięły udział w AREDS2. Sprawdzali, czy u osób tych AMD przekształciło się w formę zaawansowaną i czy zdiagnozowano u nich nowotwór płuc. Pomimo tego, że pod koniec badań AREDS2 wszyscy uczestnicy zrezygnowali z suplementu z beta-karotenem, analizy wykazały, że u palaczy lub byłych palaczy, którzy przyjmowali beta-karoten, ryzyko zapadnięcia na raka płuc jest ciągle niemal 2-krotnie większe. U osób, które przyjmowały luteinę i zeaksantynę nie stwierdzono wzrostu ryzyka.
      Ponadto ta dodatkowa analiza wykazała, że osoby, które od samego początku otrzymywały suplement z luteiną i zeaksantyną – więc przyjmowały go zarówno w czasie AEDS2 (2006–2011) jak i przez pięć kolejnych lat – ryzyko przekształcenia się AMD w postać zaawansowaną było o 20% mniejsze, niż u osób, które przez pierwszych 5 lat otrzymywały suplement z beta-karotenem i później zaczęły przyjmować nowy suplement. To potwierdza, że zastąpienie beta-karotenu luteiną i zeaksantyną było właściwym wyborem, mówi doktor Chew.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Intel potwierdził, że kosztem ponad 20 miliardów dolarów wybuduje nowy kampus w stanie Ohio. W skład kampusu wejdą dwie supernowoczesne fabryki półprzewodników, gotowe do produkcji w technologii 18A. To przyszły, zapowiadany na rok 2025 proces technologiczny Intela, w ramach którego będą powstawały procesory w technologii 1,8 nm. Budowa kampusu rozpocznie się jeszcze w bieżącym roku, a produkcja ma ruszyć w 2025 roku.
      Intel podpisał też umowy partnerskie z instytucjami edukacyjnymi w Ohio. W ich ramach firma przeznaczy dodatkowo 100 milionów dolarów na programy edukacyjne i badawcze w regionie. "To niezwykle ważna wiadomość dla stanu Ohio. Nowe fabryki Intela zmienią nasz stan, stworzą tysiące wysoko płatnych miejsc pracy w przemyśle półprzewodnikowym", stwierdził gubernator Ohio, Mike DeWine.
      To największa w historii Ohio inwestycja dokonana przez pojedyncze prywatne przedsiębiorstwo. Przy budowie kampusu zostanie zatrudnionych 7000 osób, a po powstaniu pracowało w nim będzie 3000osób. Ponadto szacuje się, że inwestycja długoterminowo stworzy dziesiątki tysięcy miejsc pracy w lokalnych firmach dostawców i partnerów.
      Kampus o powierzchni około 4 km2 powstanie w hrabstwie Licking na przedmieściach Columbus. Będzie on w stanie pomieścić do 8 fabryk. Intel nie wyklucza, że w sumie w ciągu dekady zainwestuje tam 100 miliardów dolarów, tworząc jeden z największych na świecie hubów produkcji półprzewodników.
      Tak olbrzymia inwestycja przyciągnie do Ohio licznych dostawców produktów i usług dla Intela. Będzie ona miała daleko idące konsekwencje. Fabryka półprzewodników różni się od innych fabryk. Stworzenie tak wielkiego miejsca produkcji półprzewodników jest jak budowa małego miasta, pociąga za sobą powstanie tętniącej życiem społeczności wspierających dostawców usług i produktów. [...] Jednak rozmiar ekspansji Intela w Ohio będzie w dużej mierze zależał od funduszy w ramach CHIPS Act, stwierdził wiceprezes Intela ds. produkcji, dostaw i operacji, Keyvan Esfarjani.
      Nowe fabryki mają w 100% korzystać z energii odnawialnej, dostarczać do systemu więcej wody niż pobiera oraz nie generować żadnych odpadów stałych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...