Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'Intel' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 308 wyników

  1. Intel pokazał pierwsze gotowe próbki 32-nanometrowych procesorów Clarkdale i Arrendale. Seryjna produkcja układów rozpocznie się w czwartym kwartale bieżącego roku. Dwurdzeniowe kości wyposażono w 4-megabajtowy cache, przetwarzanie wielowątkowe oraz dwukanałowy kontroler DDR3. Układy Clarkdale trafią na rynek pecetów, a Arrendale - notebooków. W kościach ma zostać zintegrowany 45-nanometrowy rdzeń graficzny. Rdzenie graficzne produkcji Intela są wykonywane w technologii o jedną generację wcześniejszej niż procesory. Pomimo tych różnic nowe procesory będą pasowały do obecnie stosowanych gniazd i mają współpracować z tymi samymi chipsetami z serii Intel 5. W 2010 roku rozpocznie się produkcja sześciordzeniowych układów Gulftown dla high-endowych pecetów oraz kości Westmere. Te ostatnie prawdopodobnie również wyposażone w sześć rdzeni i mają trafić do dwuprocesorowych serwerów. Z dostępnych informacji wynika, że Intel na razie nie wyprodukuje czterordzeniowych układów w technologii 32 nanometrów. Firma przygotuje czterordzeniowce Lynnfield dla pecetów oraz Clarksfield dla komputerów przenośnych, jednak zostaną one wykonane w 45-nanometrowym procesie. W porównaniu z innymi układami z rodziny Nehalem, procesory zostaną wyposażone w mniej pamięci cache i dwukanałowe kontrolery pamięci. Gwoli wyjaśnienia należy wspomnieć o strategii, którą Intel stosuje w rozwoju procesorów. Najpierw pojawia się nowa mikroarchitektura, a później nowy proces technologiczny. Tak więc w ramach mikroarchitektury Core pojawiły się 65-nanometrowe układy Merom, a później ich 45-nanometrowa odmiana o nazwie Penryn. Najnowsza mikroarchitektura Intela o nazwie Nehalem jest obecna na rynku już od jakiegoś czasu i możemy kupić procesory wykonane w procesie produkcyjnym 45 nanometrów, a teraz koncern zapowiada 32-nanometrowe układy Westmere, które są zmniejszonymi Nehalemami z dodanym rdzeniem graficznym. Z kolei w 2010 roku zadebiutuje nowa 32-nanometrowa mikroarchitektura o nazwie Sandy Bridge, a później Intel jeszcze bardziej zmniejszy proces technologiczny. Z wcześniejszych informacji wynika, że w latach 2011-2012 na rynek zaczną trafiać procesory wykonane w technologii 22 nanometrów. W roku 2011 zadebiutuje układ o nazwie kodowej Ivy Bridge. Będzie to 22-nanometrowe wcielenie mikroarchitektury Sandy Bridge. Z kolei w roku 2012, prawdopodobnie w jego drugiej połowie, będziemy mogli kupić 22-nanometrowe kości Haswell - pierwsze w historii układy wykonane w mikroarchitekturze zaprojektowanej specjalnie dla procesu technologicznego 22 nm. Najprawdopodobniej Haswell zadebiutuje jako ośmiordzeniowy procesor. Zestaw wykonywanych przezeń instrukcji zostanie powiększony o co najmniej jedną. Już teraz wiadomo, że obsłuży on FMA (Fused Multiply Add), która pozwoli na dodawanie i mnożenie trzech wartości w jednej operacji.
  2. Intel ogłosił, że mimo kryzysu zainwestuje w ciągu najbliższych dwóch lat 7 miliardów dolarów w fabryki w USA. Ulepszone zostaną zakłady w Oregonie, Arizonie i Nowym Meksyku, które mają produkować 32-nanometrowe układy przyszłej generacji. Inwestycje mają umocnić Intela na czołowej pozycji wśród firm półprzewodnikowych. Koncern pozostaje liderem rynku półprzewodników, a dokonanie znaczących inwestycji w czasie, gdy rywale starają się oszczędzać, powinno jeszcze bardziej zwiększyć jego przewagę. Co więcej, zapowiedziane wydatki nie zmienią poziomu już planowanych. W roku 2009 koncern i tak zarezerwował około 5,2 miliarda USD na nowe fabryki i ich wyposażenie.
  3. Craig Barrett, przewodniczący zarządu Intela, przejdzie na emeryturę. W maju jego miejsce zajmie Jane Shaw. Urodzony w 1939 roku Barret jest związany z Intelem od roku 1974. Początkowo pracował na stanowisku menedżera ds. rozwoju technologii. Wywarł wówczas duży wpływ na ulepszanie procesu produkcyjnego półprzewodnikowego giganta. W roku 1984 został wiceprezesem firmy, a sześć lat później był już wiceprezesem wykonawczym. Od 1992 jest członkiem rady nadzorczej, a w 1993 wybrano go na stanowisko dyrektora wykonawczego. W latach 1998-2005 był czwartym w historii prezesem półprzewodnikowego giganta, a następnie objął obecnie sprawowane stanowisko. Gdy na początku obecnego wieku pękła bańka dotkomowa i nastąpiło załamanie rynku komputerów, zarówno wewnątrz Intela, jak i poza firmą pojawiły się naciski, by firma zrezygnowała z wielomiliardowych inwestycji w nowe fabryki. To dzięki zdecydowanemu sprzeciwowi Barretta nie doszło do podjęcia takiej decyzji, dzięki czemu Intel miał mocną pozycję jak tylko kryzys się skończył. Niedługo potem, jak większość z nas pamięta, do ofensywy przystąpił konkurent Intela, firma AMD, i zaczął zagrażać pozycji giganta. Wykorzystała ona fakt, że Intel, błędnie jak się okazało, skupił się na zwiększaniu prędkości taktowania swoich procesorów, i zaprezentowała bardziej doskonałe produkty. Intel musiał przyznać się do błędu, a kolejna decyzja Barretta spowodowała, że zaczął odrabiać straty. Ówczesny prezes zdecydował o mocnym wejściu na rynek chipsetów, rdzeni graficznych i układów do sieci bezprzewodowych. To spowodowało, że firmy produkujące odpowiednie urządzenia mogły zaoszczędzić czas i pieniądze, które dotychczas marnowały na zakup i testowanie kompatybilności układów od różnych producentów. Teraz mogli wszystko kupić od Intela. Barrett nie jest jednak nieomylny. To pod jego rządami Intel zaangażował się mocno w prace badawczo-rozwojowe i promocję bezprzewodowej technologii WiMax, która nie zyskała większej popularności. Koncern zainwestował też olbrzymie sumy w akwizycje firm działających na rynku telekomunikacyjnym. Inwestycje te nie przyniosły spodziewanych zysków. Barrett jest doktorem nauk materiałowych. Przez 10 lat przed rozpoczęciem pracy w Intelu był pracownikiem naukowym Uniwersytetu Stanforda. Nie zerwał jednak całkowicie kontaktów ze środowiskiem akademickim. Był współprzewodniczącym Business Coalition for Excellence in Education, brał udział w pracach National Commission on Mathematics and Science Teaching for the 21st Century, jest też byłym przewodniczącym, a obecnie członkiem zarządu Stowarzyszenia Przemysłu Półprzewodnikowego. Jedno z jego najważniejszych, a może i najważniejsze, osiągnięcie ma niewiele wspólnego z rozwojem Intela. Przez lata pracy na najwyższym stanowisku w koncernie Barrett robił wszystko, co mógł, by na całym świecie, ale przede wszystkim w USA, poprawiać jakość edukacji. Martwi go fakt, iż młodzi ludzie nie interesują się nauką i technologią, przez co Stany Zjednoczone mogą stracić palmę pierwszeństwa w tych dziedzinach.
  4. Intel nie tylko odnotował duży spadek zysków w ubiegłym kwartale, ale obawia się również nie najlepszego bieżącego kwartału. Firma ogłosiła, że zamknie dwie fabryki i trzy zakłady montażowo-testowe. Pracę straci 5 do 6 tysięcy osób. Zamknięte zostaną zakłady w Malezji i Filipinach. Ponadto wstrzymana zostanie produkcja starszych 200-milimetrowych plastrów krzemowych w Fab20 w Hillsboro (Oregon) oraz produkcja plastrów w D2 w Santa Clara. Fabryki zostaną zamknięte przed końcem bieżącego roku. Nie wszystkie decyzje koncernu należy wiązać z gorszymi wynikami finansowymi. Od pewnego już czasu analitycy przewidywali, że Intel zamknie starsze zakłady na Filipinach. Tym bardziej, że zainwestował w bardziej nowoczesne fabryki tego typu w Chinach i Wietnamie. Można było się też spodziewać stopniowego zatrzymywania taśm produkcyjnych tworzących starsze, 200-milimetrowe plastry krzemowe.
  5. Intel poinformował o olbrzymim spadku zysków netto w ostatnim kwartale ubiegłego roku. Koncern zarobił aż o 90% mniej, niż rok wcześniej. Cały kwartał zamknął zyskiem w wysokości 234 milionów dolarów, podczas gdy przez ostatnie trzy miesiące 2007 roku zarobił 2,27 miliarda USD. Na tak duży spadek miał wpływ m.in. odpis księgowy w wysokości około miliarda dolarów spowodowany 64-procentowym spadkiem firmy Clearwire Corp., w którą Intel zainwestował. Ponadto w związku ze spowolnieniem gospodarczym zmniejszył się popyt na układy scalone, przez co fabryki Intela nie wykorzystywały całej mocy, czyniąc produkcję mniej opłacalną. Marża brutto Intela wyniosła w ostatnim kwartale 53%. Koncern obawia się, że w bieżącym kwartale może ona spaść do mniej niż 40%. Przedstawiciele firmy nie chcieli podać przewidywanych rezultatów za styczeń-marzec 2009. Sytuacja gospodarcza jest na tyle niepewne, że trudno cokolwiek wyrokować. Mówią jednak, że spodziewają się obrotów w wysokości około 7 miliardów dolarów. Mimo spowolnienia firma nie zamierza obcinać wydatków na badania i rozwój. Zapowiada, że na fabryki i wyposażenie wyda mniej więcej tyle samo, co w roku 2008, czyli 5,2 miliarda dolarów. Na prace badawcze zarezerwowano około 5,4 miliarda. Intel to pierwszy technologiczny gigant, który zdradził swoje ubiegłoroczne wyniki. W niedługim czasie dowiemy się, jak sobie radziły IBM, Microsoft i Google.
  6. IBM poinformował, że już po raz 16. z rzędu uzyskał w minionym roku najwięcej patentów na rynku. W 2008 roku Błękitny Gigant otrzymał 4186 patentów. Na drugim miejscu uplasował się Samsung (3515 patentów), następny był Canon (2114), później Microsoft (2030) oraz Intel (1776). IBM oświadczył, że wielu z przyznanych patentów nie będzie chronił, a udostępni je publicznie. Liczba udostępnianych publicznie patentów ma zostać zwiększona o 50%. Warto tutaj wspomnieć, że w ubiegłym tygodniu Międzynarodowy Instytut Inżynierów Elektryków i Elektroników (IEEE) po raz pierwszy w historii ocenił portfolio patentów firm z branży technologicznej. Zdaniem IEEE najlepsze portfolio ma Microsoft. Pod uwagę brano bowiem nie tylko liczbę patentów, ale również zróżnicowanie opatentowanych technologii czy szybkość powiększania się portfolio. Microsoft, który został sklasyfikowany w kategorii Oprogramowanie komputerowe, uzyskał w tym badaniu 3505 punktów. Drugie miejsce zajął Intel z 2796 punktami (kategoria Przemysł półprzewodnikowy), a trzecie IBM, który uzyskał 2747 punktów (kategoria Systemy komputerowe).
  7. Intel poinformował o zakończeniu opracowywania technologii 32 nanometrów. W czwartym kwartale 2009 roku z linii produkcyjnych mają zjechać pierwsze kości wykonane w tej technice. Przedstawiciele koncernu zapowiedzieli, że w przyszłym tygodniu podczas konferencji International Electron Devices Meeting zaprezentują szczegóły przygotowanych przez siebie rozwiązań. Będzie można zapoznać się z drugą generacją materiałów o wysokiej stałej dielektrycznej połączonych z metalową bramką czy też z techniką 193-nanometrowej litografii immersyjnej. To już czwarty rok z rzędu, gdy Intelowi udało się dotrzymać wyznaczonych terminów wdrażania kolejnego procesu produkcyjnego. Podczas wspomnianej konferencji odbędzie się również spotkanie dotyczące technologii 22 nanometrów.
  8. Opublikowano kolejną, 32. edycję listy TOP500, na której wymieniono najpotężniejsze superkomputery na świecie. Na pierwszym miejscu uplasował się RoadRunner, pierwszy superkomputer, który przekroczył barierę petaflopsa czyli biliarda (1015) operacji zmiennoprzecinkowych na sekundę. RoadRunner (BladeCenter QS22/LS21 Cluster) korzysta ze 129600 rdzeni procesorów PowerXCell 8i oraz Opteron DC, a jego wydajność to 1,105 PFlops. Minimalnie wyprzedził on maszynę Jaguar (Cray XT5) ze 150152 rdzeniami procesora QC, którego wydajność to 1,059 PFlops. Kolejny na liście superkomputer Pleiades jest już wyraźnie wolniejszy, gdyż wykonuje 0,487 PFlops. Superkomputerowym mocarstwem pozostają Stany Zjednoczone. Aż 9 z 10 najpotężniejszych maszyn znajduje się na terenie tego kraju, z czego 7 jest własnością Departamentu Energii. Na 10. pozycji uplasował się pierwszy z nieamerykańskich superkomputerów. Jest to maszyna Dawning 5000A z Szanghaju. To jednocześnie najpotężnieszy superkomputer korzystający z systemu Windows. W USA znajduje się 291 superkomputerów z TOP500. Przed sześcioma miesiącami było ich 257. Na drugim miejscu znajdziemy Europę ze 151 systemami (to o 33 mniej niż pół roku temu), a na trzecim Azję (47 superkomputerów). Na obecnej liście znajdziemy aż 6 superkomputerów z Polski. Najpotężniejszy z nich to Galera, który uplasował się na 68. pozycji. Kolejne miejsca zajmowane przez polskie maszyny to 221., 311., 337., 373. i 495. Z obecności tylu polskich superkomputerów wypada cieszyć się tym bardziej, że coraz trudniej jest dostać się na listę. Jeszcze w pierwszej połowie roku na liście wymieniana była maszyna o wydajności 9 TFlops. Obecne minimum to 12,64 TFlops. System, który teraz uplasował się na 500. pozycji, w poprzedniej edycji listy zajmował 267. miejsce. Warto też zauważyć, że w ciągu roku wydajność najpotężniejszych systemów wzrosła ponaddwukrotnie. Obecnie łączna wydajność 500 supermaszyn to 16,95 PFlops. Pół roku temu było to 11,7 PFlops, a przed rokiem - 6,97 PFlops. To najlepszy dowód, jak bardzo rośnie zapotrzebowanie na moc obliczeniową. W 379 superkomputerach (75,8%) wykorzystano procesory Intela. Przed sześcioma miesiącami takich maszyn było o cztery mniej. Do budowy 60 maszyn użyto procesorów Power produkcji IBM-a, a 59 systemów korzysta z Opteronów AMD. Najbardziej popularnymi procesorami są układy czterordzeniowe, obecne w 336 systemach. W 153 superkomputerach spotkamy kości dwurdzeniowe, a w 4 - jednordzeniowe. Siedem supermaszyn korzysta z dziewięciordzeniowych procesorów Cell. Największym producentem superkomputerów jest obecnie HP. Firma ta stworzyła 209 maszyn, a jej główny konkurent - IBM - jest autorem 188 maszyn. Jeszcze pół roku temu na TOP500 znajdowało się 210 komputerów IBM-a i 183 maszyny HP. Błękitny Gigant wciąż pozostaje liderem pod względem zainstalowanej mocy obliczeniowej. Dominującym systemem operacyjnym są edycje Linuksa zainstalowane na 439 maszynach. Trzydzieści jeden superkomputerów wykorzystuje różne OS-y, na 23 maszynach znajdziemy Unix, a na 5 - Windows. Z ciekawostek warto też odnotować debiut Nvidii na liście TOP500. Maszyna Tsubame z Tokijskiego Instytutu Technologicznego, która uplasowała się na 29. pozycji korzysta m.in. z układów Nvidia GT200.
  9. Intel rozpoczął sprzedaż procesorów z rodziny Core i7. To oficjalna nazwa architektury znanej dotychczas pod kodową nazwą Nehalem. Układy wykonane w technologii 45 nanometrów jako pierwsi na świecie mogli kupić Japończycy. Przed sklepami w tokijskiej dzielnicy Akihabara zgromadziły się setki entuzjastów komputerów. Nowe procesory nie są tanie. Układ Core i7 965 Extreme Edition taktowany zegarem o częstotliwości 3,2 GHz wyceniono na 999 dolarów. Za Core i7 940 (2,93 GHz) trzeba zapłacić 562 USD, a za Core i7 920 (2,66 GHz) - 284 USD. Intel chce przekonać klientów do nowej architektury m.in. możliwością zoptymalizowania pracy układu w zależności od potrzeb. W procesorach Core i7 można dopasować 20 różnych parametrów pracy układu. Ten tzw. Turbo Mode to jedno z ciekawszych rozwiązań zastosowanych w nowych CPU. Znane z notebooków rozwiązanie trafi tym razem do desktopów. Turbo Mode to nic innego jak dynamiczne zasilanie poborem energii przez układ. Każda jego część jest zasilana osobno. W zależności od potrzeb może więc pobierać mniej lub więcej energii. Może też przejść w stan uśpienia gdy nie jest potrzebna. Umieszczona w procesorze sieć czujników będzie decydowała np. o wyłączeniu niepotrzebnych rdzeni procesora w sytuacji, gdy uruchomiona aplikacja używa tylko jednego rdzenia, ale wykorzystuje go bardzo intensywnie. Wówczas do tego rdzenia zostanie dostarczone wyższe napięcie i zwiększy się taktowanie jego zegara, a pozostałe rdzenie zostaną "uśpione". Dzięki takiemu rozwiązaniu nasza aplikacja będzie działała bardziej wydajnie, a ogólny bilans poboru mocy i wydzielania ciepła przez procesor pozostanie niezmieniony lub się zmniejszy. Rozwiązanie takie uchroni nas też przed przegrzewaniem się procesora i np. zawieszaniem komputera, gdyż w słabo chłodzonych maszynach kości nie będą osiągały pełnej mocy, by zapewnić ich stabilną pracę. Główną cechą architektury Core i7 jest modułowa budowa procesora. Dzięki niej producent może łatwo dodawać nowe rdzenie i oferować kości zarówno dwu-, trzy- jak i ośmiordzeniowe. Co ważne, procesory będą monolityczne, czyli od samego początku będą "prawdziwymi" wielordzeniowcami. To odstępstwo od dotychczasowej polityki Intela, którego pierwszymi wielordzeniowymi układami były po prostu procesory zamknięte w jednej obudowie, a dopiero kolejne wersje to rdzenie umieszczone na jednym kawałku krzemu. W nowych procesorach umieszczono również kontroler pamięci, a ich architektura umożliwia wbudowywanie weń licznych poziomów pamięci cache. Teoretycznie może się w nich znaleźć nawet cache L4 (czwartego poziomu). Ponadto Core i7 współpracuje z układami DDR3 w trybach jedno-, dwu-, trzy- i czterokanałowym. Podstawowym procesorem z rodziny Core i7 będzie układ czterordzeniowy. Intel zapowiada również kości z ośmioma rdzeniami. Jako, że każdy z rdzeni może przetwarzać dwa wątki, układy obsłużą do 16 wątków jednocześnie. Przypomina to więc obecną w procesorach Pentium technologię Hyper-Threading. Tym razem ma jednak być ona bardziej wydajna i elastyczna. Intel zapowiedział bowiem, że użytkownik będzie mógł z poziomu BIOS-u wyłączyć obsługę wielowątkowości. Inną istotną zmianą jest zastosowanie magistrali QPI (Quick Path Interconnect) w miejsce FSB. Dzięki temu dwukrotnie przyspieszono wewnętrzną komunikację pomiędzy CPU w maszynach wieloprocesorowych. Na razie wszystko wskazuje na to, że Intel nastawił się na bardziej wymagających odbiorców. Core i7 powinien sprawdzić się w zastosowaniach serwerowych oraz tam, gdzie wymagane są duże moce obliczeniowe i wielowątkowość. Wstępne testy na domowych desktopach napawają umiarkowanym optymizmem. W typowo domowych zastosowaniach procesory sprawują się tylko nieznacznie lepiej dotychczas dostępne na rynku CPU. Przyrost wydajności jest niewielki, a zastanawiając się nad kupnem Core i7 powinniśmy wziąć pod uwagę wysoką cenę nowości oraz fakt, że zmieniając procesor musimy kupić przystosowaną do współpracy z nim płytę główną z podstawką LGA 1366.
  10. Intel i Asus chcą przy pomocy internautów skonstruować "idealny komputer". W tym celu uruchomiono witrynę WePC.com, na której można umieszczać swoje pomysły dotyczącego tego, jak taki komputer powinien wyglądać. Obie firmy chcą, by użytkownicy "marzyli o niemożliwym", żeby ich wyobraźni nic nie ograniczało. Zapewniają jednocześnie, że wysiłek osób odwiedzających WePC.com nie pójdzie na marne. Wymarzony przez internautów model komputera na pewno powstanie. Hasło umieszczone na witrynie brzmi: "You dream it. ASUS builds it. Intel inside it", co można przetłumaczyć, jako "Ty projektujesz, ASUS buduje, Intel dostarcza podzespołów". Społeczność, biorąca udział w dyskusji na stronie WePC.com zostanie podzielona na trzy grupy tematyczne, odzwierciedlające podział na najbardziej obecnie popularne rodzaje komputerów osobistych: netbooki, notebooki i notebooki do gier.
  11. Jak donosi EE Times, fabryki układów scalonych korzystające z 450-milimetrowych plastrów krzemowych, rzeczywiście mogą powstać, jednak nie tak szybko, jakby sobie niektórzy życzyli. Najwięksi producenci chipów, Intel, TSMC i Samsung, obiecują, że tego typu zakłady powstaną około roku 2012. Ich zapewnieniom nie wierzy wielu ekspertów, którzy uważają, że stworzenie odpowiednich urządzeń, technologii i wybudowanie linii produkcyjnych jest zbyt kosztowne. Analityk Dean Freeman z Gartnera uważa, że tego typu zakłady rzeczywiście powstaną, ale rozpoczną produkcję nie wcześniej niż w 2017 roku. Koszt wdrożenia nowej technologii jest szacowany na 20-40 miliardów dolarów. Zdaniem Freemana kalendarium wdrażania technologii będzie wyglądało następująco: - w roku 2009 producenci układów scalonych ustalą zasady współpracy nad nową technologią; - w 2010 pojawią się prototypowe plastry krzemowe o średnicy 450 mm; - w latach 2012-2013 będą produkowane prototypowe urządzenia; - pomiędzy rokiem 2014 a 2016 będą uruchamiane pilotażowe linie produkcyjne; - w latach 2017-2019 ruszą pierwsze linie korzystające z 450-milimetrowych plastrów, z których zjadą układy wykonane w technologii 8 lub 5 nanometrów. Powierzchnia 450-milimetrowego plastra jest ponaddwukrotnie większa, niż wykorzystywanych obecnie plastrów 300-milimetrowych. To obniża cenę na pojedynczy układ, pozwala też zaoszczędzić wodę, energię oraz inne zasoby potrzebne do produkcji kości.
  12. Rzecznik prasowy Intela, Chuck Mulloy, oznajmił, że półprzewodnikowy gigant ma "poważne wątpliwości" dotyczące ujawnionych niedawno planów AMD. Mowa tutaj o wydzieleniu z firmy fabryk i utworzenie z nich przedsiębiorstwa o nazwie Foundry Company. Mulloy przypomniał, że Intel i AMD podpisały umowę o wymianie licencji, na podstawie której AMD płaci za prawo do korzystania z własności intelektualnej konkurencyjnej firmy. Intel ma poważne wątpliwości co do transakcji i jej wpływu na zapisy umowy licencyjnej. Będziemy zdecydowanie bronili praw intelektualnych Intela - mówi Mulloy. Niestety, wygląda na to, że oficjalnie nie dowiemy się, czego dotyczą wątpliwości Intela. Firma ta zwróciła się do AMD z prośbą o zgodę na upublicznienie warunków umowy tak, by wszelkie rozmowy mogły toczyć się przy drzwiach otwartych. AMD nie zgodziło się na to.
  13. Ilość energii zużywanej przez procesor to jeden z ważniejszych wskaźników, którymi kierują się klienci - szczególnie duże firmy - podczas podejmowania decyzji o zakupie sprzętu komputerowego. Nic zatem dziwnego, że Intel postanowił wyliczyć, jakie oszczędności przyniosły klientom firmy procesory z rodziny Core. Koncern szacuje, że już sprzedane układy zużyły o 20 terawatów mniej energii niż kości poprzedniej generacji. Średnia cena energii elektrycznej w USA wynosi 10 centów za kilowatogodzinę. Wynika z tego, że oszczędności sięgnęły 2 miliardów dolarów.
  14. Z nieoficjalnych doniesień wynika, że TSMC, największy na świecie producent układów scalonych, rozpocznie w przyszłym roku produkcję 40-nanometrowych procesorów na zlecenie AMD. Jak dowiedzieli się dziennikarze serwisu Taiwan Economic News, pierwsze CPU wykonane w technologii 40 nm wyjadą z TSMC w drugim kwartale przyszłego roku. Dotychczas spodziewano się, że AMD pójdzie w ślady Intela i zaprezentuje procesory wykonane w procesie 45 nanometrów. Jak widzimy, najprawdopodobniej będzie inaczej. Analitycy rynkowi od pewnego czasu spodziewali się, że TSMC otrzyma większe zamówienia od AMD, gdyż główny konkurent Intela ma zamiar coraz bardziej polegać na zewnętrznych producentach procesorów. Tymczasem Intel nie spoczywa na laurach i zapowiada, że w przyszłym roku rozpocznie sprzedaż procesorów wykonanych w technologii 32 nanometrów.
  15. Jak pamiętamy, już Tesla pracował nad bezprzewodowym przesyłaniem energii elektrycznej, a ostatnio Intel zademonstrował urządzenia, które to umożliwiają. Tym razem Discovery Channel sfinansował eksperyment, w wyniku którego energia została wysłana na odległość 148 kilometrów. Autorem eksperymentu był John C. Mankins, który przez 25 lat pracował dla NASA i był odpowiedzialny za program wykorzystania energii słonecznej. Mankins wysłał 18 watów pomiędzy dwiema wyspami Hawajów. Cały eksperyment kosztował milion dolarów. W jego ramach powstało 9 paneli słonecznych i systemy, z których każdy mógł przesłać 20 watów. Jednak, aby otrzymać zgodę Federalnej Komisji Lotnictwa, moc nadajników musiała zostać dziesięciokrotnie zmniejszona. Odbiorniki zaś były tak małe, że były w stanie zebrać jedynie 1/1000 część wysłanej mocy. Celem eksperymentu było wykazanie, że energię elektryczną można wysyłać przez atmosferę na duże odległości. Mankins chce, by w przyszłości energia Słońca była pozyskiwana przez liczne krążące na orbicie satelity, które wysyłałyby ją do olbrzymiej stacji odbiorczej na Ziemi.
  16. Intel kupił londyńskie przedsiębiorstwo Opened Hand, które specjalizuje się w tworzeniu mobilnych usług i oprogramowania opartych na systemie Linux. Nowy nabytek Intela będzie brał udział w pracach społeczności Moblin Software Platform, rozwijającej oprogramowanie dla procesora Atom. Powstające tam software ma być używane w energooszczędnych notebookach i urządzeniach MID (mobile internet devices). Dotychczasowe projekty Opened Hand (m.in. biblioteka Clutter czy Matchbox) nadal będą prowadzone. Fakt, iż firma będzie mogła kontynuować prace nad nimi jest bardzo ważny dla środowiska linuksowego, gdyż Opened Hand zatrudnia wielu programistów kluczowych dla projektu Gnome. Wśród klientów Opened Hand znajdują się m.in. Nokia Internet Tablets, One Laptop per Child, Openmoko i Vernier.
  17. Justin Rattner, wiceprezes Intela ds. technologicznych, stwierdził, że w ciągu najbliższych 40 lat powstaną maszyny, które będą bardziej inteligentne od ludzi. W bieżącym roku Intel obchodzi 40-lecie istnienie i,jak stwierdził Rattner, w ciągu kolejnych 40 lat inteligencja maszyn produkowanych przez Intela przewyższy ludzką inteligencję. Postęp w ciągu następnych 100 lat będzie dzięki technologii większy, niż postęp, który dokonał się w ciągu ostatnich 20 000 lat ludzkiej historii. Oczywiście dokonanie tego postępu nie będzie łatwe. Co prawda obecnie wykorzystywana technologia CMOS wciąż ma sporo do zaoferowania, ale, jak zauważa doktor Mike Garner z Intela, potrzebujemy nowych materiałów by usprawnić działanie tranzystorów oraz nowych technologii, takich jak tranzystory trójbramkowe. Zapowiedzi Intela są o tyle prawdopodobne, że, jak przewiduje wielu specjalistów, w ciągu 20 najbliższych lat powinny powstać komputery kwantowe.
  18. Podczas ostatniego IDF-u Intel pokazał technologię przesyłania prądu na odległość. Justin Rattner, prezes ds. technologicznych, zademonstrował zestaw składający się z odbiornika i nadajnika. Urządzenia nie były połączone za pomocą żadnego kabla. gdy znajdowały się w odległości 60 centymetrów od siebie, w odbiorniku zapaliła się żarówka zasilana prądem z nadajnika. Rattner mówi, że już w tej chwili stworzone przez Intela prototypy są w stanie przesyłać prąd o dość wysokim natężeniu na odległość około 1 metra. Ich wydajność wynosi 75%. Jak wyjaśnił badacz Intela, Alanson Sample, w przeciwieństwie do np. Wi-Fi, nadajniki przesyłające prąd nie działają bez przerwy. Rozpoczynają transmisję tylko wówczas, gdy wykryją w swoim zasięgu odbiornik. Możliwe jest też przesłanie prądu, gdy pomiędzy nadajnikiem a odbiornikiem znajduje się przeszkoda. Co bardzo ważne, gdyby pomiędzy nimi znalazł się człowiek, nie będzie mu groziło żadne niebezpieczeństwo. Ponadto, Rattner informuje, że nadajnik nie potrzebuje specjalnej anteny. Dzięki temu można go np. wbudować w biurko. Wtedy wystarczy tylko położyć na nim laptopa, odtwarzacz MP3 czy jakiekolwiek inne urządzenie i będzie się ono ładowało. Intel nie przekazał żadnych informacji dotyczących rynkowego debiutu zaprezentowanej technologii. Można jednak przypuszczać, że miną lata zanim trafi ona do naszych domów.
  19. Już wkrótce, bo w latach 2011-2012 na rynek zaczną trafiać procesory wykonane w technologii 22 nanometrów. Z planów Intela wynika, że w roku 2011 zadebiutuje układ o nazwie kodowej "Ivy Bridge". Będzie to 22-nanometrowe wcielenie mikroarchitektury "Sandy Bridge" (32 nm), która pojawi się w roku 2010. Z kolei w roku 2012, prawdopodobnie w jego drugiej połowie, będziemy mogli kupić 22-nanometrowe kości "Haswell" - pierwsze w historii układy wykonane w mikroarchitekturze zaprojektowanej specjalnie dla procesu technologicznego 22 nm. Najprawdopodobniej "Haswell" zadebiutuje jako ośmiordzeniowy procesor. Zestaw wykonywanych przezeń instrukcji zostanie powiększony przez co najmniej jedną. Już teraz wiadomo, że obsłuży on FMA (Fused Multiply Add), która pozwoli na dodawanie i mnożenie trzech wartości w jednej operacji.
  20. Intel zdradził szczegóły na temat kości Larrabee, która ma konkurować z procesorami graficznymi ATI i Nvidii. Przede wszystkim trzeba podkreślić, że Larrabee będzie samodzielnym układem scalonym opartym na architekturze Pentium. Nie jest to więc rdzeń graficzny wbudowany w chipset. Intel produkował już niegdyś samodzielne układy graficzne, jednak wycofał się z tego rynku. Koncern jest natomiast największym producentem wbudowanych rdzeni graficznych. Larrabee nie będzie jednak typowym GPU. Ma być to coś pośredniego pomiędzy procesorem (CPU) a procesorem graficznym (GPU). Intelowi chodzi o wyprodukowanie łatwo programowalnego układu o dużej wydajności. Kość będzie korzystała z rdzeni x86, których liczba, w zależności od segmentu rynku, na jaki będzie skierowana, ma się wahać od 8 do 48. Wspomagane będą one przez jednostkę przetwarzania wektorowego. Każdy z rdzeni zostanie wyposażony w 256 kilobajtów pamięci podręcznej drugiego poziomu. Larrabee ma obsługiwać zarówno DirectX, jak i apple'owskie Open CL. Kość będzie radziła sobie z różnymi typami obliczeń równoległych, a jej system kolejkowania zadań będzie zależał od oprogramowania, a nie od wbudowanych obwodów logicznych. To da programistom większą swobodę pracy, gdyż będą mogli oni dostosować zasoby sprzętowe do wymagań każdej aplikacji. Każdy z rdzeni Larrabee będzie w stanie wykonać cztery wątki, z osobnym rejestrem dla każdego z nich. Kość wykorzystuje też 1024-bitową, dwukierunkową sieć pierścieniową. Analitycy z Jon Peddie Research uważają, że rynek nie będzie robił różnicy pomiędzy Larrabee i tradycyjnym GPU, więc kość będzie rozprowadzana jako GPU. Trudno jednak ocenić szanse Intel na sukces. Z jednej strony aż 98% rynku procesorów graficznych należy do ATI i Nvidii. Należy jednak pamiętać, że Intel jest potężną firmą, z olbrzymim zapleczem technicznym i marketingowym, może więc stać się poważnym graczem.
  21. W drugim kwartale bieżącego roku Intel zanotował znaczy wzrost dochodów, pomimo obniżenia średniej ceny sprzedawanych przez siebie układów scalonych. Zysk netto firmy zwiększył się o 25% i wyniósł 1,6 miliarda dolarów, co dało 28 centów zysku na akcję. W drugim kwartale roku 2007 Intel zarobił 1,28 miliarda USD netto, czyli 22 centy na akcję. Ostatnie wyniki Intela były lepsze, niż przewidywali analitycy, którzy prognozowali, że pomiędzy początkiem kwietnia a końcem czerwca firma zarobi 1,49 miliarda USD. Prezes koncern, Paul Otellini, mówi, że duży popyt na tanie notebooki spowodował, iż spadła średnia cena układu scalonego, a wysokie zyski odnotowano dzięki dużemu popytowi. Otellini jest optymistą - jego zdaniem wysoki popyt utrzyma się też w drugiej połowie roku. Intel notuje wzrost popytu na całym świecie. Jedynie w Chinach został on zahamowany przez trzęsienie ziemi. Jednak zbliżające się Igrzyska Olimpijskie oraz prace nad zniszczoną przez trzęsienie infrastrukturą ponownie zwiększyły chiński popyt. Pod koniec drugiego kwartału bieżącego roku Intel zatrudniał mniej niż 82 000 pracowników. W ostatnim czasie z firmy odeszło 2700 osób, z czego wiele przeszło do przedsiębiorstwa Numonyx, producenta pamięci flash założonego przez Intela i STMicroelectronics.
  22. Intel zaprezentował nową platformę dla notebooków - Centrino 2. W jej skład wchodzi procesor 45-nanometrowy procesor Core 2 Duo (Penryn) oraz chipset obsługujący standard łączności bezprzewodowej 802.11n i wyposażony w zintegrowaną kość graficzną. Dwurdzeniowe procesory taktowane są zegarami o częstotliwościach 2,26 GHz do 3,06 GHz, wyposażono je w 6 megabajtów pamięci cache drugiego poziomu i współpracują z 1066-megahercową magistralą systemową. Intel obiecuje, że jeszcze w bieżącym roku Centrino 2 wzbogaci się o czterordzeniowy procesor. Koncern twierdzi, że nowa platforma jest o 23% bardziej wydajna, zużywa 23% mniej energii, a moduł graficzny pracuje 70% szybciej, niż jej poprzedniczka. Ponadto platforma potrafi automatycznie przełączać się pomiędzy zintegrowaną a zewnętrzną kartą graficzną, co przynosi kolejne oszczędności energii. Centrino 2 obsługuje technologię vPro, która daje administratorom zdalny dostęp do laptopa, nawet gdy ten jest w trybie uśpienia. Niemal wszyscy producenci laptopów zapowiadają, że przygotują maszyny z Centrino 2.
  23. Specjalista ds. zabezpieczeń, Kris Kaspersky, zapowiedział, że zademonstruje, w jaki sposób można zaatakować mikroprocesory Intela. Kaspersky twierdzi, że znalazł w nich błąd, który pozwala na przeprowadzenie zdalnego ataku za pomocą JavaScriptu lub pakietów TCP/IP. Na atak podatne są ponoć wszystkie komputery, niezależnie od zainstalowanego systemu operacyjnego. Demonstracja ma być przeprowadzona podczas październikowej konferencji Hack In The Box. Atakowane będą maszyny z w pełni załatanymi systemami Windows XP, Windows Vista, Windows Server 2003, Windows Server 2008, Linux, BSD i innymi. Niewykluczone, że próbie zostaną poddane też komputery Apple'a. Pokażę działający kod i udostępnię go - mówi Kaspersky. Dodaje, że błędy w układach scalonych stają się coraz większym problemem. Niektóre z nich pozwalają na doprowadzenie do awarii systemu, inne dają możliwość przejęcia pełnej kontroli nad jądrem OS-u. Jeszcze inne pozwalają na zaatakowanie Windows Visty poprzez wyłączenie mechanizmów ochronnych - stwierdza Kaspersky. Specjalista mówi, że większość z błędów w mikroprocesorach można naprawić. Intel co jakiś czas dostarcza producentom BIOS-u odpowiednie oprogramowanie łatające luki w procesorach. Jednak niektórzy producenci BIOS-u nie stosują tego oprogramowania, a części z luk po prostu nie można w ten sposób poprawić.
  24. Anwar Gholoum, jeden z inżynierów zatrudnionych w intelowskim Laboratorium Technologii Mikroprocesorowych, opublikował na oficjalnym blogu Intela wpis, w którym zwraca programistom uwagę na poważne zmiany, jakie zajdą w najbliższych latach. Gholoum wspomina o rozmowach, jakie toczy z innymi inżynierami. Z jednej strony od lat mówi się o tym, że osoby rozwijające oprogramowanie starają się jak najmniejszym kosztem przystosować je do pracy na dwu- czy czterordzeniowych procesorach. Z drugiej zaś, inżynierowie już dyskutują o procesorach przyszłości, zawierających dziesiątki, setki, a nawet tysiące rdzeni. W przypadku takich procesorów taktyka "oszczędnego" programowania się nie sprawdzi. Obecnie programiści w dość prosty sposób przystosowują np. gry napisane dla procesorów jednordzeniowych, do współpracy z czterordzeniowymi układami. Wystarczy, że "rozbiją" pojedynczy wątek na kilka oddzielnych: jeden odpowiedzialny za przetwarzanie muzyki, drugi za grafikę, trzeci za sztuczną inteligencję. Taka taktyka zapewnia spore oszczędności, gdyż "rozbite" wątki korzystają z pierwotnego kodu pojedynczego wątku, więc ich przygotowanie nie wymaga dużo pracy. Zmiany takie powodują pewne zwiększenie wydajności, gdyż każdy z wątków może być przetwarzany przez osobny rdzeń. Jeśli zatem rozdzielimy oryginalny wątek na 4, to będą one korzystały z 4 i tylko z 4 rdzeni. Gholoum uważa, że programiści powinni przygotować się do całkowitej zmiany podejścia. Tak naprawdę procesory przyszłości będą wymagały przepisania niemal całego kodu tak, by każdy z wątków mógł skorzystać z dowolnej dostępnej liczby rdzeni. Dopiero wtedy w pełni wykorzystamy wydajność wielordzeniowych procesorów. Już w tej chwili istnieją techniki, które działają właśnie w ten sposób. Bardzo dobrze skaluje się ray tracing, czyli śledzenia światła w wirtualnych scenach. Wykorzystywane w tym przypadku algorytmy są tak skonstruowane, że dołożenie kolejnych rdzeni powoduje zwiększenie prędkości przetwarzania, gdyż potrafią one skorzystać z dodatkowych mocy obliczeniowych. Większość aplikacji jest jednak napisanych tak, że ich skalowanie będzie wymagało olbrzymiego nakładu pracy. Tym bardziej, że zarówno współczesne narzędzia developerskie i testowe oraz języki programowania są mocno zorientowane na przetwarzanie jednowątkowe. Gholoum zauważa, że programiści specjalizujący się w rynku HPC (high-performance computing) od lat wiedzą o problemach związanych z przetwarzaniem wielowątkowym. Osoby programujące na rynek konsumencki jak dotąd nie przejmowały się kłopotami, z jakimi musieli zmagać się ich koledzy oprogramowaujący potężne klastry. W najbliższych latach może się to zmienić.
  25. Inżynierowie Intela stworzyli najbardziej wydajny układ scalony przeznaczony do zastosowań telekomunikacyjnych. Kość jest w stanie kodować w świetle dane z prędkością 200 gigabitów na sekundę. Co ciekawe, układ wykonano z krzemu. Obecnie najbardziej wydajne układy tego typu pracują z prędkością 100 gigabitów na sekundę i nie korzystają z krzemu. Mają jednak tę wadę, że nie można ich wydajności zwiększać tak tanim kosztem, jak w przypadku układów krzemowych. Z drugiej jednak strony trzeba pamiętać, że przyszłością fotoniki wydają się takie materiały jak arsenek galu czy fosforek indu. Materiały te mają lepsze właściwości optyczne, a zatem bardziej nadają się do pracy z wykorzystywanym w telekomunikacji światłem. Nowa kość Intela rozbija strumień światła na osiem osobnych kanałów. Każdy z nich działa jak modulator, a więc koduje dane w świetle. Po ich zakodowaniu ponownie tworzony jest pojedynczy strumień. Mario Paniccia, dyrektor intelowskiego laboratorium zajmującego się krzemem i fotoniką, poinformował, że podczas testów każdy modulator pracował z niemal identyczną prędkością, która wynosiła 25 Gb/s. Dodał przy tym, że kanały testowano osobno, ale wkrótce zostaną opublikowane wyniki testów całości. Jednocześnie pracujące kanały mogą nawzajem się zakłócać, powodując spadek wydajności całego układu, jednak już wstępne wyniki pokazują, że, dzięki odpowiedniej architekturze, zakłócenia będą minimalne. Prowadzone przez Paniccię laboratorium to jeden z najważniejszych ośrodków pracujących nad krzemową fotoniką. Przed czterema laty powstał tam pierwszy krzemowy modulator działający z prędkością 1 Gb/s. Rok później stworzono krzemowy laser, a w 2006 roku - laser łączący fosforek indu z krzemem, co dowiodło, że lasery do zastosowań telekomunikacyjnych można budować z krzemu. Przed rokiem zaś informowaliśmy, że Paniccia i jego zespół stworzyli modulator, którego prędkość wynosiła 40 gigabitów na sekundę.
×
×
  • Dodaj nową pozycję...