Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'procesor' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 143 wyników

  1. AMD poinformowało, że rozpoczyna dostawy procesorów, wyprodukowanych na zlecenie przez Chartered Semiconductors w czerwcu 2006 roku. Koncern stwierdził, że produkty Chartered są dojrzałe i spełniają normy jakości stawiane przez AMD. Nie jest jasne, które z modeli są produkowane w fabrykach singapurskiej firmy. W listopadzie 2004 roku AMD i Chartered Semiconductor Manufacturing podpisały umowę, na podstawie której Chartered otrzymał licencję na część oprogramowania Automated Precision Manufacturing i stał się dodatkowym źródłem 64-bitowych procesorów spod znaku AMD. Początkowo przypuszczano, że pierwsze CPU z Singapuru trafią do AMD w czerwcu bieżącego roku. Sugerowano, że AMD zamówił początkowo produkcję z tysiąca 300-milimetrowych plastrów krzemowych miesięcznie, a układy miały być wykonane w technologii 90 nanometrów. Singapurska firma rozpoczęła jednak produkcję wcześniej niż przewidywano, bo w maju, tak więc w lipcu jej procesory trafią na rynek. Pojawiły się też informacje, że AMD może trzykrotnie zwiększyć liczbę zamówiony układów. Obecnie główny konkurent Intela produkuje w swojej Fab 30 około 30 tysięcy 200-milimetrowych plastrów. Ponadto rozpoczął też dostawy z Fab 36, chociaż nie wiadomo, jaka jest obecnie wydajność tej fabryki. Ostatnio AMD ogłosiła, że w 2008 roku planuje dostarczać na rynek dwukrotnie więcej procesorów niż w roku 2005.
  2. Intel oficjalnie ogłosił datę premiery procesorów Core 2 Duo. Kość Conroe, bo tak brzmi nazwa desktopowej wersji układu, zadebiutuje 27 lipca w kwaterze głównej firmy w Santa Clara. W wydarzeniu, które jednocześnie oznaczać będzie koniec ery procesorów Pentium, wezmą udział wszyscy szefowie Intela. Tym samym, w sześć lat po debiucie, z rynku będzie wycofywana mikroarchitektura NetBurst. Ostatnim układem, który powstał w oparciu o nią, jest dwurdzeniowy Pentium D. Układy Intela przegrywały jednak wydajnością z najbardziej zaawansowanymi produktami AMD, a na niższym segmencie rynku przegrywały z nimi ceną. Pozwoliło to konkurentowi Intela znacząco umocnić swoją pozycję na rynku w ciągu ostatniego roku. Układy Core 2 Duo charakteryzują się lepszą wydajnością i mniejszym zużyciem energii niż kości Pentium D. Czy jest to prawda będzie się można przekonać już jutro (13 lipca), gdyż wtedy właśnie kończy się embargo na informacje dotyczące Core 2 Duo. Media będą mogły opublikować też wyniki testów porównujących wydajność kości Intela z procesorami AMD. Przed kilkoma miesiącami Intel poinformował, że jego nowe układy będą o 20% bardziej wydajne, niż jakikolwiek produkt AMD obecny na rynku w bieżącym roku. Po premierze Conroe’a będziemy w sierpniu świadkami debiutu układu Merom, czyli Core 2 Duo przeznaczonego dla notebooków. Ponadto Intel potwierdził, że układ Montecito, pierwszy dwurdzeniowy procesor z rodziny Itanium, trafi na rynek 18 lipca.
  3. Od dekad elastyczna elektronika była niewielką niszą. Teraz może być gotowa, by wejść do mainstream'u, stwierdził Rakesh Kumar, lider zespołu, który stworzył plastikowy procesor. O elektronice zintegrowanej w praktycznie każdym przedmiocie, od podkoszulków poprzez butelki po owoce, słyszymy od lat. Dotychczas jednak plany jej rozpowszechnienia są dalekie od realizacji, a na przeszkodzi stoi brak elastycznego, plastikowego, wydajnego i taniego procesora, który można by masowo produkować. Wiele przedsiębiorstw próbowało stworzyć takie urządzenie i im się nie udało. Według naukowców z amerykańskiego University of Illinois Urbana-Champaign i specjalistów z brytyjskiej firmy PragmatIC Semiconductor, problem w tym, że nawet najprostszy mikrokontroler jest zbyt złożony, by można go było masowo wytwarzać na plastikowym podłożu. Amerykańsko-brytyjski zespół zaprezentował właśnie uproszczony, ale w pełni funkcjonalny, plastikowy procesor, który można masowo produkować bardzo niskim kosztem. Przygotowano dwie wersje procesora: 4- i 8-bitową. Na substracie z 4-bitowymi układami, których koszt masowej produkcji liczyłby się dosłownie w groszach, działa 81% procesorów. To wystarczająco dobry wynik, by wdrożyć masową produkcję. Procesory wyprodukowano z cienkowarstwowego tlenku indowo-galowo-cynkowego (IGZO), dla którego podłożem był plastik. Innowacja polegała zaś na stworzeniu od podstaw nowej mikroarchitektury – Flexicore.Musiała być maksymalnie uproszczona, by sprawdziła się w na plastiku. Dlatego zdecydowano się na układy 4- i 8-bitowe zamiast powszechnie wykorzystywanych obecnie 16- i 32-bitowych. Naukowcy rozdzielili moduły pamięci przechowującej instrukcje od pamięci przechowującej dane. Zredukowano również liczbę i stopień złożoności instrukcji, jakie procesor jest w stanie wykonać. Dodatkowym uproszczeniem jest wykonywanie pojedynczej instrukcji w jednym cyklu zegara. W wyniku wszystkich uproszczeń 4-bitowy FlexiCore składa się z 2104 podzespołów. To mniej więcej tyle samo ile tranzystorów posiadał procesor Intel 4004 z 1971 roku. I niemal 30-krotnie mniej niż konkurencyjny PlasticARM zaprezentowany w ubiegłym roku. Uproszczenie jest więc ogromne. Stworzono też procesor 8-bitowy, jednak nie sprawuje się on tak dobrze, jak wersja 4-bitowa. Obecnie trwają testy plastikowych plastrów z procesorami. Są one sprawdzane zarówno pod kątem wydajności, jak i odporności na wyginanie. Jednocześnie twórcy procesorów prowadzą prace optymalizacyjne, starając się jak najlepiej dostosować architekturę do różnych zadań. Jak poinformował Kumar, badania już wykazały, że można znacznie zredukować pobór prądu, nieco zbliżając do siebie poszczególne bramki. « powrót do artykułu
  4. W procesorach Intela odkryto kolejną lukę. Dziura nazwana CacheOut to luka typu side-channel, czyli błąd pozwalający na wykorzystanie pewnych szczegółów, często prawidłowej, implementacji. Dziura odkryta przez naukowców z University of Michigan i University of Adelaide występuje we wszystkich procesorach od architektury SkyLake po Coffee Lake powstałych przed rokiem 2019. Wiadomo, że nie występuje ona w procesorach AMD, ale badacze nie wykluczają, że jest obecna w układach IBM-a i ARM. Jak zauważyli eksperci gdy dane są pobierane z cache'u L1 często trafiają do buforów, z których mogą zostać wykradzione przez napastnika. Bardzo atrakcyjnym elementem CacheOut jest fakt, że napastnik może zdecydować, które dane z L1 zostaną umieszczone w buforze, skąd dokona kradzieży. Specjaliści wykazali, że możliwy jest wyciek danych mimo wielu różnych zabezpieczeń. w tym zabezpieczeń pomiędzy wątkami, procesami, wirtualnymi maszynami, przestrzenią użytkownika a jądrem systemu. Intel, który o problemie został poinformowany już w ubiegłym roku, sklasyfikował lukę L1D Eviction Sampling/CVE-2020-0549/INTEL-SA-00329 jako średnio poważną i przygotował odpowiednie poprawki. Odpowiedni mikrokod zostanie upubliczniony a nwjbliższym czasie. Tymczasowym obejściem problemu jest wyłączenie wielowątkowości lub wyłączenie rozszerzenia TSX. « powrót do artykułu
  5. Na MIT powstał nowoczesny mikroprocesor z tranzystorami z nanorurek węglowych. Urządzenie można wyprodukować za pomocą technik używanych obecnie przez przemysł półprzewodnikowy, co ma olbrzymie znaczenie dla ewentualnego wdrożenia. Nanorurki węglowe są od dawna przedmiotem zainteresowań, gdyż dają nadzieję na zbudowanie kolejnej generacji komputerów po tym, gdy układów krzemowych nie będzie można już miniaturyzować. Tranzystory polowe z nanorurek węglowych (CNFET) mogą mieć bardzo obiecujące właściwości. Z dotychczasowych badań wynika, że powinny być one około 10-krotnie bardziej efektywne pod względem zużycia energii i pozwolić na przeprowadzanie obliczeń ze znacznie większą prędkością. Problem jednak w tym, że przy masowej produkcji w nanorurkach pojawia się tak wiele defektów, że nie można ich w praktyce wykorzystać. Naukowcy z MIT opracowali nową technikę, która znacząco zmniejsza liczbę defektów i daje pełną kontrolę nad produkcję CNFET. Co ważne, technika ta wykorzystuje procesy już używane w przemyśle półprzewodnikowym. Dzięki niej na MIT wyprodukowano 16-bitowy mikroprocesor składający się z 14 000 CNFET, który jest w stanie wykonywać te same obliczenia co tradycyjny procesor. Nowy procesor oparto na architekturze RISC-V. Testy wykazały, że jest on zdolny do wykonania pełnego zestawu instrukcji dla tej technologii. To, jak dotychczas, najbardziej zaawansowany chip wykonany w nowym procesie nanotechnologicznym, który daje nadzieję na wysoką wydajność i efektywność energetyczną, mówi współautor badań, profesor Max M. Shulaker. Krzem ma swoje ograniczenia. Jeśli chcemy coraz szybszych komputerów, to węglowe nanorurki są najbardziej obiecującym materiałem. Nasze badania pokazują zupełnie nowy sposób budowy układów scalonych z węglowymi nanorurkami. Shulaker i jego zespół od dawna pracują nad układami scalonymi z CNFET. Przed sześcioma laty byli w stanie zaprezentować procesor złożony ze 178 CNFET, który mógł pracować na pojedynczym bicie danych. Od tamtego czasu uczeni skupili się na rozwiązaniu trzech kluczowych problemów: defektach materiałowych, niedociągnięciach produkcyjnych oraz problemach funkcjonalnych. Największym problemem było uzyskanie nanorurek odpowiedniej jakości. Żeby CNFET działał bez zakłóceń, musi bez problemów przełączać się pomiędzy stanem 0 i 1, podobnie jak tradycyjny tranzystor. Jednak zawsze podczas produkcji powstanie jakaś część nanorurek, które będą wykazywały właściwości metalu, a nie półprzewodnika. Takie nanorurki czynią CNFET całkowicie nieprzydatnym. Zaawansowane układy scalone, by być odpornymi na obecność wadliwych nanorurek i móc szybko wykonywać zaawansowane obliczenia, musiałyby korzystać z nanorurek o czystości sięgającej 99,999999%. Obecnie jest to niemożliwe do osiągnięcia. Naukowcy z MIT opracowali technikę nazwaną DREAM (designing resilency against metallic CNT), która tak pozycjonuje metaliczne CNFET, że nie zakłócają one obliczeń. Dzięki temu zmniejszyli wymagania dotyczące czystości nanorurek aż o cztery rzędy wielkości. To zaś oznacza, że do wyprodukowania w pełni sprawnego układu potrzebują nanorurek o czystości sięgającej 99,99%, a to jest obecnie możliwe. Uczeni przeanalizowali różne kombinacje bramek logicznych i zauważyli, że metaliczne nanorurki węglowe nie wpływają na nie w ten sam sposób. Okazało się, że pojedyncza metaliczna nanorurki w bramce A może uniemożliwić komunikację pomiędzy nią, a bramką B, ale już liczne metaliczne nanorurki w bramce B nie wpływają negatywnie na jej możliwości komunikacji z żadną bramką. Przeprowadzili więc symulacje, by odnaleźć wszystkie możliwe kombinacje bramek, które byłyby odporne na obecność wadliwych nanorurek. Podczas projektowania układu scalonego brano pod uwagę jedynie te kombinacje. Dzięki technice DREAM możemy po prostu kupić komercyjne dostępne nanorurki, umieścić je na plastrze i stworzyć układ scalony, nie potrzebujemy żadnych specjalnych zabiegów, mówi Shulaker. Produkcja CNFET rozpoczyna się od nałożenia znajdujących się w roztworze nanorurek na podłoże z predefiniowanym architekturą układu. Jednak nie do uniknięcia jest sytuacja, w której część nanorurek pozbija się w grupy, tworząc rodzaj dużych cząstek zanieczyszczających układ scalony. Poradzono sobie z tym problemem tworząc technikę RINSE (removal of incubated nanotubes through selective exfoliation). Na podłoże nakłada się wcześniej związek chemiczny, który ułatwia nanorurkom przyczepianie się do niego. Następnie, już po nałożeniu nanorurek, całość pokrywana jest polimerem i zanurzana w specjalnym rozpuszczalniku. Rozpuszczalnik zmywa polimer, a ten zabiera ze sobą pozbijane w grupy nanorurki. Te zaś nanorurki, które nie zgrupowały się z innymi, pozostają przyczepione do podłoża. Technika ta aż 250-kronie zmniejsza zagęszczenie zbitek nanorurek w porównaniu z alternatywnymi metodami ich usuwania. Poradzono sobie też z ostatnim problemem, czyli wytworzeniem tranzystorów typu N i typu P. Zwykle produkcja tych tranzystorów z węglowych nanorurek kończyła się uzyskaniem urządzeń o bardzo różniącej się wydajności. Problem rozwiązano za pomocą nowej techniki o nazwie MIXED (metal interface engineering crossed with electrostatic doping), dzięki której możliwe jest precyzyjna optymalizacja procesorów do wymaganych zadań. Technika ta polega na dołączeniu do każdego tranzystora, w zależności czy ma być on P czy N, odpowiedniego metalu, platyny lub tytanu. Następnie tranzystory są pokrywane tlenkiem, co pozwala na ich dostosowanie do zadań, jakie będą spełniały. Można więc osobno dostroić je do pracy w zastosowaniach w wysoko wydajnych serwerach, a osobno do energooszczędnych implantów medycznych. Obecnie, w ramach programu prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych), wspomniane techniki produkcji układów scalonych z węglowych nanorurek wdrażane są w fabrycznych liniach produkcyjnych. W tej chwili nikt nie potrafi powiedzieć, kiedy w sklepach pojawią się pierwsze procesory z CNFET. Shulaker mówi, że może się to stać już w ciągu najbliższych pięciu lat. Sądzimy, że teraz to już nie jest pytanie czy, ale pytanie kiedy, mówi uczony. « powrót do artykułu
  6. W laboratoriach IBM-a w Zurichu trwają prace nad układem scalonym, który wykorzystuje płyn do pracy oraz chłodzenia. Ludzki mózg jest 10 000 razy gęściej upakowany i wydajny niż jakikolwiek współczesny komputer. Jest to możliwe dzięki temu, iż wykorzystuje jedną, niezwykle efektywną, sieć połączeń kapilarnych i krwionośnych, które jednocześnie odbierają ciepło i transportują energię - mówi Bruno Michel, który kieruje pracami zespołu badawczego. Jeśli IBM-owi uda się osiągnąć założony cel to pewnego dnia takie maszyny jak superkomputer Watson uda się zamknąć w kieszonkowym urządzeniu przenośnym. Michel i jego zespół chcą zbudować trójwymiarowy układ scalony składający się z tysięcy kości ułożonych jedna na drugiej. Pomiędzy każdymi dwoma kośćmi ma znaleźć się para struktur wypełnionych płynem. Jedna z tych sieci będzie zawierała naładowany płyn, zapewniający układowi zasilanie, druga zaś będzie odpowiedzialna za odprowadzanie tego płynu gdy już przekaże on swój ładunek i odbierze ciepło z układu. Wykorzystanie płynów do chłodzenia układów 3D nie jest niczym nowym. Niezwykłym pomysłem badaczy z IBM-a jest użycie tego samego płynu do zasilania układów. Do zwiększenia wydajności maszyn HPC (high performance computing) koniecznie jest umieszczanie układów bliżej siebie. Ale zasilanie ich za pomocą płynu to niebadany dotychczas obszar. Nie wykracza to całkowicie poza wyobraźnię. Nie widzę powodów, dla których nie miałoby to działać, ale nikt nigdy czegoś takiego nie próbował - mówi Mark Zwolinski z University of Southampton. Superkomputer Watson wymaga do pracy 85 kilowatów i jest 10-krotnie większy od dużej lodówki. Michel uważa, że wykorzystanie płynu do chłodzenia i zasilania pozwoli na znaczące zredukowanie poboru mocy i zmniejszenie wielkości urządzenia. Uczeni z IBM-a chcą pokazać prototyp swojego układu już w 2014 roku. Jeśli im się to uda, Watson zagości w naszych kieszeniach.
  7. HP ma zamiar stworzyć do 2017 roku 256-rdzeniowy procesor Corona, którego rdzenie będą komunikowały się ze sobą za pomocą łączy optycznych. Taka kość miałaby wykonywać 10 biliardów operacji zmiennoprzecinkowych na sekundę, zatem wydajność pięciu układów dorównywałaby wydajności współczesnych superkomputerów. Poszczególne rdzenie wymieniałyby dane z prędkością 20 terabitów na sekundę, a komunikacja między procesorem a pamięcią odbywałaby się z prędkością 10 Tb/s. Co więcej Corona zużywałaby znacznie mniej energii niż współczesne układy, dzięki czemu superkomputerom łatwiej będzie pokonać barierę eksaflopsa (1018 operacji zmiennoprzecinkowych na sekundę). Obecnie istnieją dwa główne problemy, które znacznie utrudniają zwiększanie wydajności układów scalonych w dotychczasowym tempie. Im więcej rdzeni w procesorze, tym trudniej jest koordynować ich pracę i komunikować je ze sobą. Bardzo trudno jest uzyskać układ posiadający więcej niż 16 rdzeni, który pracowałby jak procesor równoległy. Drugi poważny problem to olbrzymi pobór mocy, który ma miejsce podczas przesyłania danych od i do układów pamięci. Obie te przeszkody można rozwiązać za pomocą zintegrowanej fotoniki, czyli laserów i łączy optycznych wbudowanych w układ scalony. Przykładem takiej kości może być zaprezentowany właśnie przez IBM-a Holey Optochip. Nad podobnymi rozwiązaniami pracują też Intel (projekt Runnemede), Nvidia (Echelon), Sandia National Laboratory (X-calibur) czy MIT (Angstrom). Najważniejszą jednak rolę odgrywa zintegrowana fotonika w projekcie Corona. Problem w tym, że część potrzebnej technologii wciąż jeszcze nie została opracowana. Jednak co się powoli zmienia. Od dłuższego już czasu informujemy o postępach na tym polu. Przez ostatnie lata wiele firm pracowało nad poszczególnymi podzespołami, teraz zaczęto łączyć je w układy. To jak przejście od tranzystora do układu scalonego - stwierdził Marco Fiorentino z HP Labs. HP ma zamiar w każdy rdzeń Corony wbudować laser, który będzie wysyłał informacje do wszystkich innych rdzeni. Jak obliczają specjaliści wykorzystanie elektroniki do stworzenia 10-terabitowego kanału przesyłu danych pomiędzy CPU a pamięcią wymagałoby 160 watów mocy. Zdaniem HP, jeśli zastąpimy elektronikę zintegrowaną fotoniką, pobór mocy spadnie do 6,4 wata. Zmniejszenie poboru mocy to dla superkomputerów niezwykle istotna sprawa. Najpotężniejsza maszyna na świecie, japoński K Computer, potrzebuje obecnie do pracy 12,6 MW. Jego wydajność wynosi 10,5 PFlops, trzeba by ją zatem zwiększyć niemal 100-krotnie by osiągnąć barierę eksaflopsa. Zintegrowana fotonika przyczyni się również do obniżenia poboru mocy przez serwery i urządzenia telekomunikacyjne, co odgrywa olbrzymią rolę w internecie, którym przesyłamy coraz większą ilość danych. Z czasem lasery i łącza optyczne mogą trafić też do urządzeń przenośnych, pozwalający na ich dłuższą pracę bez potrzeby ładowania baterii. Również, co niezwykle istotne, w fotonice nie występuje problem interferencji elektromagnetycznej, zatem jej stosowanie np. w samochodach czy samolotach będzie bezpieczniejsze niż stosowanie urządzeń elektronicznych. Problemem jest też stworzenie miniaturowych laserów, które można będzie budować za pomocą dostępnych technologii. Jako, że z krzemu nie można generować światła, specjaliści badają inne materiały, przede wszystkim arsenek galu i fosforek indu. Ostatnio MIT zainteresował się też germanem. Trwają również intensywne prace nad rozwojem technologii TSV (through silicon vias). Pozwoli się ona pozbyć szyn, za pomocą których łączą się ze sobą poszczególne układy. Szyny stanowią dla danych wąskie gardło i zużywają sporo energii. TSV pozwala układać na sobie układy scalone (powstają w ten sposób układy 3D) i łączyć je kablami poprowadzonymi wewnątrz takiego stosu układów, co zwiększa przepustowość, a jednocześnie zmniejsza zużycie prądu i pozwala na zaoszczędzenie miejsca na płycie głównej. W projekcie Corona HP chce połączyć obie technologie - 3D i zintegrowaną fotonikę. Dzięki temu ma powstać 256-rdzeniowy procesor zbudowany z 64-rdzeniowych klastrów. Całość zostanie wykonana w procesie 16 nanometrów i będzie połączona łączami optycznymi.
  8. Intel zaprezentował 50-rdzeniowy układ Knights Corner o wydajności 1 teraflopsa. Przed 14 laty taką wydajność miał najpotężniejszy wówczas superkomputer świata, ASCI Red. Nowy procesor Intela ma więc taką moc obliczeniową jak 7264 ówczesne układy. Procesor Knights Corner wykorzystuje rozwiązania opracowane na potrzeby układu Larrabee. Będzie on produkowany w technologii 22 nanometrów i skorzysta z trójbramkowych tranzystorów. Intel ma zamiar użyć Knights Corner to zbudowania przed rokiem 2018 superkomputera, którego wydajność będzie liczone a eksaflopsach. Knights Corner trafi na rynek już w przyszłym roku, a w 2013 roku rozpocznie pracę w 10-petaflopsowym superkomputerze Stampede zamówionym przez University of Texas.
  9. Firma Adapteva ogłosiła, że wkrótce zacznie produkować próbną wersję 64-rdzeniowego procesora wykonanego w technologii 28 nanometrów. Układ E64G4 korzysta z technologii Epiphany, która została stworzona pod kątem takich zastosowań jak rozpoznawanie mowy czy przetwarzanie grafiki. Adapteva specjalizuje się w tworzeniu aplikacji na rynek finansowy, wojskowy i inżynieryjny, teraz zaś chce zaistnieć na rynku urządzeń przenośnych. W firmę zainwestowano zaledwie 2 miliony dolarów, teraz przygotowuje ona swój czwarty układ scalony i wkrótce przestanie przynosić straty. Andreas Olofsson, założyciel i szef Adaptevy mówi, że mimo iż same maski litograficzne kosztują miliony dolarów, to przedsiębiorstwo może działać, gdyż wybrało model multiproject wafer (MPW), w którym koszty masek podzielone są pomiędzy klientów firmy. Ponadto Adapteva działa na rynkach, na których produkuje się niewielkie serie drogich układów. Pojedynczy procesor może kosztować nawet 1000 dolarów. Od lata 2011, kiedy to Adapteva wyprodukowała swój pierwszy układ scalony, 16-rdzeniowy procesor wykonany w technologii 65 nanometrów, wpływy przedsiębiorstwa wyniosły milion dolarów. Obecnie ma powstać czwarta generacja układu Epiphany. Kość będzie składała się z 64 rdzeni RISC, z których każdy zostanie wyposażony w 32 kilobajty pamięci podręcznej. Całość zmieści się na powierzchni 8,2 mm2 i będzie, jak twierdzi Adapteva, najbardziej efektywnym energetycznie układem scalonym. Jego wydajność ma wynieść 70 GFlops/wat. Kość taktowana będzie zegarem o częstotliwości do 700 MHz. Ambicje firmy jednak się na tym nie kończą. Architektura Epiphany ma umożliwić produkcję procesora składającego się z 4096 rdzeni. Układy na zamówienie Adaptevy są produkowane w fabrykach Globalfoundries.
  10. Liczne źródła informują, że Sony pracuje nad konsolą PlayStation 4 i nie ma zamiaru wykorzystywać w niej ani procesora Cell ani żadnego układu na nim opartego. Nie wiadomo, jaki procesor miałby znaleźć się w przyszłej konsoli. Plotka głosi, że japoński koncern porzuci układy graficzne Nvidii i będzie korzystał z rozwiązań AMD. Cell jest dzieckiem Kena Kutaragi, twórcy PlayStation, i był produkowany wspólnie przez Sony, Toshibę i IBM-a. Kutaragi opuścił jednak Sony, więc firma postanowiła zrezygnować z tego układu. Informacja taka powinna ucieszyć developerów, którzy skarżyli się, że Cell jest trudny w oprogramowaniu. Z procesorem tym wiązano niegdyś olbrzymie nadzieje, spodziewano się, że trafi do serwerów i urządzeń medycznych. Ambitne plany nigdy nie zostały zrealizowane, a sam procesor w dużej mierze przyczynił się do niepowodzenia PlayStation 3. Konsola, której poprzednie wersje były największymi przebojami w swojej kategorii, sprzedaje się gorzej niż urządzenia konkurencji. Przed wszystkimi twórcami konsoli, nie tylko przed Sony, stoi trudne wyzwanie. Twórcy najnowszej generacji wykorzystywanego w wielu grach silnika Unreal twierdzą bowiem, że najnowsze konsole będą musiały być co najmniej 10-krotnie bardziej wydajne niż PS3 czy Xbox 360.
  11. Rozmawiamy z Adamem Kiepulem, absolwentem Wydziału Elektroniki Politechniki Wrocławskiej (1996), który od 1997 pracuje w Dolinie Krzemowej jako inżynier aplikacji procesorów i rdzeni MIPS, kolejno w Philips Semiconductors, NEC Electronics oraz PMC-Sierra. Na czym polega Pańska praca? Inżynier aplikacji musi odnaleźć się w różnych rolach. Podstawowym obowiązkiem jest udzielanie wsparcia technicznego klientom, począwszy od odpowiedzi na proste pytania o architekturę czy cechy użytkowe procesora aż po rozwiązywanie złożonych problemów technicznych. Na przykład jeśli system klienta nie pracuje prawidłowo to inżynier aplikacji jest na „pierwszej linii frontu” - współpracuje z deweloperami po stronie klienta, aby zidentyfikować sekwencję instrukcji i innych zdarzeń, która z takiego czy innego powodu nie daje spodziewanych rezultatów. Następnie, jeśli okaże się, że wina nie leży po stronie programu czy problemu z płytą lub innym komponentem, tylko po stronie procesora, inżynier aplikacji współpracuje z projektantami poszczególnych części procesora, aby znaleźć błąd i opracować jego „obejście”. Do obowiązków należy także opracowywanie specjalnych przykładowych programów specyficznych dla danego procesora i jego architektury, testowanie i ocena narzędzi (kompilatorów, debuggerów itp.), a czasem również ręczna optymalizacja kodu klienta w celu uzyskania lepszej wydajności na danym procesorze. Do tego dochodzi tworzenie wszelkiego rodzaju dokumentacji jak instrukcje użytkownika, noty aplikacyjne itp., opracowywanie i przeprowadzanie szkoleń technicznych dla klientów, pomoc i towarzyszenie specjalistom od marketingu czy sprzedaży w spotkaniach z klientami, reprezentowanie firmy na specjalistycznych targach, seminariach itd. Jak wygląda droga z polskiej politechniki do Krzemowej Doliny? Czego się trzeba uczyć, by pracować w takiej firmie jak Pańska? Wydaje mi się, że zawsze najważniejsze jest, aby mieć jasno postawiony cel i wytrwale pracować nad jego realizacją. Przydatny jest także łut szczęścia. To brzmi na pewno jak banał, ale w wielu przypadkach naprawdę istotne jest to, aby znaleźć się w odpowiednim miejscu w odpowiednim czasie i do tego jeszcze być na to w pełni przygotowanym. Techniką, a elektroniką i komputerami w szczególności, interesowałem się od dzieciństwa. Mając chyba 13 lat przeczytałem w jednym z pierwszych numerów magazynu „Bajtek” historię o Jobsie i Wozniaku czyli o powstaniu firmy Apple. Pamiętam, że ten właśnie artykuł oraz nieco późniejszy - o Dolinie Krzemowej i jej „klimatach”, jak się to dziś mówi - były dla mnie niczym swego rodzaju olśnienie i stały się wyraźnymi impulsami, które spowodowały, że nagle zrozumiałem, iż kiedyś po prostu muszę „tam” być. Wtedy znaczyło to znacznie więcej niż dziś. Były to ostatnie lata PRL-u i dla większości ludzi takie postanowienie nastolatka, który nie skończył jeszcze 8-klasowej wówczas podstawówki, wydawało się zwyczajną dziecinną mrzonką. Jednak wszystko co wtedy i później robiłem, było kolejnymi logicznymi krokami przybliżającymi mnie do tego celu. Pilnie uczyłem się matematyki, fizyki oraz języka angielskiego, a jednocześnie pochłaniałem literaturę i magazyny z dziedziny elektroniki i informatyki. Archaiczny już dziś język BASIC poznałem jeszcze koło 6. klasy dzięki kursom Rolanda Wacławka w „Młodym Techniku”. Pod koniec podstawówki znałem już język maszynowy procesora Z80 (serca m.in. komputera Sinclair ZX Spectrum) jak również podstawy techniki cyfrowej i systemów mikroprocesorowych. W liceum nauczyłem się jeszcze języka maszynowego procesorów 6502 / 6510, na których oparte były popularne wówczas 8-bitowe komputery domowe Atari i Commodore. Już wtedy potrafiłem „od zera” napisać złożony program w assemblerze, wykorzystujący rejestry sprzętu, przerwania itp. Taka wiedza i doświadczenie są niezwykle istotne i ogromnie procentują podczas studiów, jak również później – już w karierze zawodowej. Wydaje mi się, ze ogromną zaletą, ale też jednocześnie swego rodzaju słabością polskiego systemu kształcenia technicznego na poziomie wyższym jest ogromny nacisk na podstawy teoretyczne. Na studiach zapoznajemy się z teoriami, które najwybitniejsze umysły opracowały np. 80 lat temu, bez których dziś po prostu nie byłoby elektroniki i informatyki. To z jednej strony wymusza i kształtuje pewną dyscyplinę intelektualną, sposób myślenia oraz zdobywania wiedzy. Z drugiej jednak strony na polskich politechnikach, w porównaniu z zachodnimi, poświęca się znacznie mniej czasu na stronę praktyczną i faktyczne przygotowanie do zawodu inżyniera. Być może teraz jest nieco inaczej, ale tak było w połowie lat 90., kiedy ja kończyłem studia. Jeśli miałbym doradzać dzisiejszym uczniom i studentom, którzy chcieliby przeżyć podobną przygodę za granicą, to zachęcałbym do dwóch rzeczy: język(i) oraz praktyczna wiedza związana z zawodem i daną specjalnością. Jeśli pracuje się w kraju anglosaskim to oczywiście wystarczy angielski, jednak jeśli myśli się o pracy np. we Francji, Szwajcarii czy Norwegii to równie ważna jest znajomość miejscowego języka. Jeśli ktoś chciałby projektować procesory, to na pewno musi opanować nie tylko teoretyczne podstawy elektroniki i techniki cyfrowej, ale także języki opisu układów jak VHDL i Verilog, jak również języki programowania, zwłaszcza skryptowe jak np. PERL. Jeszcze jedna uwaga: nie chcę nikogo zniechęcać, ale obawiam się, że dziś dostać się do Doliny Krzemowej jest dużo trudniej niż w r. 1997, kiedy ja tu przyjechałem. Mój przypadek jest dobrą ilustracją tego, że niezbędne są sprzyjające okoliczności oraz szczęście. W 1996 skończyłem Elektronikę na Politechnice Wrocławskiej. Moją specjalizacją były oczywiście systemy mikroprocesorowe. Jeszcze pod koniec studiów wysłałem do oddziału Philips Semiconductors w Zurychu podanie o przyjęcie na praktykę i, ku memu ogromnemu zaskoczeniu, zostałem przyjęty, mimo, że liczba miejsc jest bardzo ograniczona, a liczba podań jest naprawdę ogromna. Jako praktykant przez 4 miesiące zajmowałem się testowaniem układów scalonych, które sterują wyświetlaczami LCD w telefonach komórkowych. Miałem okazję wykazać się tam wiedzą zdobytą podczas studiów, ale myślałem wciąż o prawdziwych procesorach, a kiedy dowiedziałem się, że oddział w Dolinie Krzemowej poszukuje inżyniera do grupy projektującej rdzenie MIPS, bez wahania wysłałem swoje CV. Po dwóch rozmowach kwalifikacyjnych przez telefon, dzięki opinii przełożonych z Zurychu otrzymałem propozycję pracy w tej grupie jako inżynier aplikacji. Był to moment przełomowy. Jednak należy pamiętać, że były to inne czasy – szczyt prosperity w Dolinie Krzemowej, kiedy panował prawdziwy głód wysoko wykwalifikowanych pracowników i sprowadzano ich z całego świata, w oparciu o specjalną wizę H1B, sponsorowaną przez pracodawcę, który musiał udowodnić, iż nie jest w stanie znaleźć odpowiednio wykwalifikowanego kandydata na dane stanowisko wśród obywateli USA. Od tamtej pory jednak wiele się zmieniło. Wielki upadek „bańki” tzw. dot-com’ów, a także przeniesienie licznych stanowisk pracy do Indii i Chin zaowocowały masowymi zwolnieniami. Wielu fachowców wróciło do swoich krajów, a liczni Amerykanie o wysokich kwalifikacjach nie mogą obecnie znaleźć pracy. Obawiam się, że w tej sytuacji moja droga, tzn. poprzez wizę H1B, dziś jest praktycznie niemożliwa. Jednak wciąż można się tu dostać. Jeden z możliwych sposobów to studia na amerykańskiej uczelni. To jednak wciąż nie gwarantuje, iż później będzie można tu legalnie pozostać i podjąć pracę. Dlatego lepszym rozwiązaniem wydaje mi się podjęcie pracy w Polsce lub innym kraju Unii, a następnie przeniesienie do oddziału amerykańskiego. Nie muszę też chyba wspominać, że zdolni naukowcy pracujący na polskich uczelniach mają dodatkowe atuty i możliwości współpracy z firmami z Doliny.
  12. W marcu na rynek trafi długo oczekiwany ośmiordzeniowy procesor Xeon przeznaczony dla dwuprocesorowych platform. Układ będzie korzystał z architektury SandyBridge. Xeon E5 „Sandy Bridge-EP“ zostanie wyposażony też w czterokanałowy kontroler pamięci oraz nawet 20 megabajtów cache’u. Z nieoficjalnych informacji wynika, że jego premiera nastąpi 6 marca bieżącego roku. Nowy Xeon E5 wejdzie w skład przyszłej platformy Romley, czyli znanej już Intel X79, która zostanie rozbudowana o obsługę dwóch procesorów, SAS i inne rozwiązania przygotowane pod kątem serwerów i stacji roboczych. Procesor będzie współpracował z podstawką LGA2011, jednak nie wiadomo na razie, czy będzie kompatybilny ze standardowymi płytami głównymi dla desktopów. Obecnie posiadacze komputerów osobistych mogą korzystać jedynie z sześciordzeniowych procesorów Intela. Podobno niektórzy producenci płyt głównych przygotowują urządzenia przeznaczone dla desktopów, współpracujące z Xeonem E5.
  13. Intel przygotowuje się do debiutu 22-nanometrowych procesorów Ivy Bridge. Jednocześnie koncern zakończy produkcję wielu starszych modeli procesorów. Ivy Bridge, który korzysta z technologii tranzystorów 3D (FinFET) ma trafić na rynek 8 kwietnia. Tymczasem ze sklepów będą powoli znikały 32-nanometrowe procesory korzystające z architektury Westmere i Sandy Bridge. Kości, których produkcja zostanie wstrzymana to Celeron 430, 450 i E3300, Core i3-530, Core i5-655K, 660, 661, 670, 680, 750S, 760 i 2300, Core i7-860S, 870, 870S, 875K, 880S, 930, 950 i 960, Core Duo E7500 i E7600, Pentium E550, E5700, E6600 oraz G960. Jak można zauważyć, decyzja Intela oznacza koniec produkcji procesorów dla podstawek LGA1156 oraz LGA1366. Na rynku pozostaną układy dla podstawek LGA1155 i LGA2011, co uprości życie zarówno klientom, jak i producentom płyt głównych.
  14. AMD zaprezentowała dzisiaj kartę graficzną Radeon HD 7970. Firma twierdzi, że to najbardziej wydajna jednoprocesorowa karta na świecie, która korzysta z jedynego GPU wykonanego w technologii 28 nanometrów. Procesor wykorzystuje nową mikroarchitekturę Graphics Core Next. W porównaniu z poprzednią generacją architektura ta jest o 150% bardziej wydajna na każdy milimetr kwadratowy powierzchni. Bazujący na Tahiti GPU kość Radeon HT 7970 korzysta z 2048 procesorów strumieniowych, 384-bitowej szyny pamięci GDDR5 i 4,31 miliarda tranzystorów. Powierzchnia procesora wynosi zaledwie 365 milimetrów kwadratowych. Układ Radeon 7970 taktowany jest zegarem o częstotliwości 925 megaherców, a jego teoretyczna szczytowa wydajność wynosi 3,79 teraflopsa. To nieco ponad teraflops więcej niż wydajność karty Radeon 6970. Szyna pamięci nowej karty taktowana jest 1,375-gigahercowym zegarem, co pozwala jej na przesłanie 264 gigabajtów danych w ciągu sekundy. Przepustowość szyny 6970 wynosi 176 GB/s.
  15. Jak wynika z informacji zdobytych przez Reutera, procesor A5, z którego korzystają iPhone 4S oraz iPad 2, jest produkowany w Austin w Teksasie. Układ powstaje w nowej fabryce firmy Samsung Electronics. W zbudowanie zakładu, który pełną moc produkcyjną osiągnął w bieżącym miesiącu, zainwestowano 3,6 miliarda dolarów. W tej samej fabryce tworzone są też układy pamięci NAND. Dotychczas Apple znane było z tego, że podzespoły z których budowane są firmowe produkty, powstają w Azji. Ani Apple, ani Samsung nie komentują doniesień o przeniesieniu produkcji. Samsung to niejedyna firma z działu wysokich technologii, która działa w stolicy Teksasu. Znajdują się tam też siedziby Intela, AMD czy ARM-a. Do Austin przyciąga przedsiębiorstwa obecność dobrze wykształconych kadr, których dopływ zapewnia University of Texas. Ponadto, jak informowaliśmy przed kilkoma miesiącami, dotychczasowa "fabryka świata" - Chiny - stają się coraz droższe, co powoduje, iż coraz więcej firmy zastanawia się nad przenoszeniem produkcji w inne regiony. Apple to z jednej strony jeden z największych klientów Samsunga, a z drugiej - jeden z napoważniejszych rywali. Firmy toczą wiele bardzo ostrych sporów patentowych.
  16. Barcelońskie Centrum Superkomputerowe, w którym stoi Mare Nostrum, niegdyś najpotężniejszy komputer Europy, ogłosiło, że ma zamiar zbudować superkomputer wykorzystujący procesory ARM. Byłaby to pierwsza maszyna tego typu. Komputer będzie wykorzystywał układy Nvidii Tegra 3 (znane wcześniej jako Kal-El) oraz CUDA GPU. Procesory graficzne CUDA będę używane do przyspieszania obliczeń wykonywanych przez Tegra 3. Użycie układów ARM w miejsce najczęściej wykorzystywanych kości x86 ma na celu zmniejszenie poboru energii przez komputer. Obecnie używane superkomputery wymagają do pracy olbrzymich ilości energii. Japoński superkomputer K, pierwsza maszyna, której moc obliczeniowa przekroczyła 10 petaflopsów, potrzebuje niemal 13 megawatów. Wraz ze wzrostem mocy obliczeniowej rosną też rachunki za energię, a tymczasem trwa budowa kolejnych supermaszyn o mocy powyżej 10 PFlops.
  17. Inżynierowie z University of California, Berkeley, zaprezentowali sposób na zmniejszenie minimalnego napięcia koniecznego do przechowywania ładunku w kondensatorze. Im szybciej działa komputer, tym cieplejszy się staje. Tak więc kluczowym problemem w produkcji szybszych mikroprocesorów jest spowodowanie, by ich podstawowy element, tranzystor, był bardziej energooszczędny - mówi Asif Khan, jeden z autorów odkrycia. Niestety tranzystory nie stają się na tyle energooszczędne, by dotrzymać kroku zapotrzebowaniu na coraz większe moce obliczeniowe, co prowadzi do zwiększenia poboru mocy przez mikroprocesory - dodaje uczony. W laboratorium Sayeefa Salahuddina, w którym jest zatrudniony Khan, od 2008 roku trwają prace nad zwiększeniem wydajności tranzystorów. W końcu, dzięki wykorzystaniu ferroelektryków, udało się osiągnąć założony cel. Ferroelektryki przechowują zarówno ładunki dodatnie jak i ujemne. Co więcej, składują je nawet po odłączeniu napięcia. Ponadto ich bardzo przydatną cechą jest możliwość zmiany polaryzacji elektrycznej za pomocą zewnętrznego pola elektrycznego. Naukowcy z Berkeley udowodnili, że w kondensatorze, w którym ferroelektryk połączono z dielektrykiem, można zwiększyć ładunek zgromadzony dla napięcia o konkretnej wartości. To prototypowe prace, które pozwolą nam wykorzystać zjawisko ujemnej pojemności, by zmniejszyć napięcie wymagane przez współczesne tranzystory - mówi Salahuddin, który już będąc studentem zastanawiał się nad zjawiskiem ujemnej pojemności w ferroelektrykach. Jeśli wykorzystamy to zjawisko do stworzenia niskonapięciowego tranzystora bez jednoczesnego zmniejszania jego wydajności i szybkości pracy, możemy zmienić cały przemysł komputerowy - dodaje uczony. Naukowcy połączyli ferroelektryk cyrkonian-tytanian ołowiu (PZT) z dielektrykiem tytanianem strontu (STO). Następnie do PZT-STO przyłożyli napięcie elektryczne i porównali jego pojemność elektryczną do pojemności samego STO. W strukturze z ferroelektrykiem zaobserwowaliśmy dwukrotne zwiększenie różnicy potencjałów elektrycznych przy tym samym przyłożonym napięciu, a różnica ta może być jeszcze większa - mówią uczeni. Zwiększająca się gęstość upakowania tranzystorów i zmniejszające się ich rozmiary nie pociągnęły za sobą odpowiedniego spadku wymagań co do poboru prądu potrzebnego do pracy. W temperaturze pokojowej do 10-krotnego zwiększenia ilości prądu przepływającego przez tranzystor wymagane jest napięcie co najmniej 60 miliwoltów. Jako, że różnica pomiędzy stanami 0 i 1 w tranzystorze musi być duża, to do sterowania pracą tranzystora konieczne jest przyłożenie napięcia nie mniejszego niż mniej więcej 1 wolt. To wąskie gardło. Prędkość taktowania procesorów nie ulega zmianie od 2005 roku i coraz trudniej jest dalej zmniejszać tranzystory - mówi Khan. A im mniejsze podzespoły, tym trudniej je schłodzić. Salahuddin i jego zespół proponują dodać do architektury tranzystorów ferroelektryk, dzięki któremu można będzie uzyskać większy ładunek z niższego napięcia. Takie tranzystory będą wydzielały mniej ciepła, więc łatwiej będzie je schłodzić. Zdaniem uczonych warto też przyjrzeć się ferroelektrykom pod kątem ich zastosowania w układach DRAM, superkondensatorach czy innych urządzeniach do przechowywania energii.
  18. Jeszcze w bieżącym roku będzie można kupić androidowe tablety wykorzystujące czterordzeniowe procesory. Takie zapewnienie padło z ust Jen-Hsun Huanga, dyrektora wykonawczego Nvidii. Jego zdaniem takie urządzenia trafią do sklepów w czasie świąt. Na smartfony z czterodzeniowymi CPU trzeba będzie poczekać do przyszłego roku. Obecnie trzy czwarte tabletów Motoroli, LG i Toshiby korzysta z dwurdzeniowych kości Tegra 2 Nvidii. Nowy procesor, Kal-El, ma charakteryzować się dwukrotnie większą wydajnością podczas surfowania po internecie. Czterordzeniowy procesor może jednak sprawić kłopoty producentom tabletów. Obecnie zdecydowanym liderem na rynku jest iPad Apple'a. Inni producenci ciągle "gonią" iPada, starając się m.in. dotrzymać mu kroku pod względem czasu pracy na pojedynczym ładowaniu baterii. Zastosowanie czterordzeniowego CPU może oznaczać, że tablety staną się mniej atrakcyjne cenowo w porównaniu z ofertą Apple'a oraz zwiększy się ich zapotrzebowanie na energię. Inna sytuacja panuje na rynku smartfonów. Tam urządzenia z Androidem sprzedają się lepiej niż iPhone. Huang nie mówił jednak nic na temat czterordzeniowca Nvidii dla smartfonów, a inni producenci, jak Texas Instruments czy Qualcomm, zapowiadają tego typu układy na przyszły rok.
  19. University of Manchester i ARM chcą połączyć milion procesorów ARM, by symulować działanie ludzkiego mózgu. Specjaliści mówią, że uda się w ten sposób przeprowadzić symulację 1% mózgu. Pracami nad komputerem SpiNNaker kieruje Steve Furber, znany projektant procesorów ARM i pracownik naukowy University of Manchester. Do budowy maszyny zostaną wykorzystane procesory, które będą w liczbie 18 zamykane w pojedynczej obudowie. „Taka paczka zapewnia mocy peceta w małej przestrzeni i przy wykorzystaniu jednego wata" - oświadczył uniwersytet. Maszyna będzie symulowała pracę mózgu przesyłając niewielkie ilości danych. Naukowcy chcą dzięki niej lepiej zrozumieć, jak działa mózg. Psycholodzy już stworzyli sieci neuronowe, które symulują stany patologiczne. Używają ich do testowania różnych terapii, sprawdzania, która jest najbardziej efektywna - mówi Furber. Obecnie wiarygodność takich sieci jest ograniczona ich mocą obliczeniową, mamy jednak nadzieję, że SpiNNaker znacząco ją zwiększy. Nie wiemy, jak działa mózg jako system przetwarzający informacje i musimy się tego dowiedzieć. Mamy nadzieję, że nasza maszyna przyczyni się do poszerzenia wiedzy - dodaje.
  20. Nvidia opublikowała wideo pokazyjące prototypową grę Glowball, która ma być prezentacją możliwości czterordzeniowego procesora Kal-El dla urządzeń przenośnych. W grze, która korzysta z akcelerometra, sterujemy świecącą kulą za pomocą ruchów urządzenia. To wszystko jest symulowane w czasie rzeczywistym. Nie korzystamy z wcześniej przygotowywanych animacji - dowiadujemy się z wideo. Gra działa bardzo płynnie, chociaż z prezentowanego filmu nie dowiemy się, ile czasu mija pomiędzy poruszeniem urządzenia, a reakcją kuli. Na wideo widzimy, co dzieje się po przełączeniu trybu gry tak, by korzystała ona z dwóch, a nie czterech, rdzeni. Z gry praktycznie nie można korzystać. Nvidia zapewnia, że gdy Kal-El trafi do rąk użytkowników, będzie jeszcze bardziej wydajny. To układ prototypowy. Te, które trafią do produkcji będą o 25-30 procent szybsze - stwierdzono na filmie. Producenci procesorów mobilnych muszą mierzyć się z poważnym wyzwaniem. Użytkownicy smartfonów czy tabletów chętnie sięgają po gry komputerowe i chcą, by działały one równie płynnie i miały podobne możliwości, jak gry znane im z pecetów. Jednocześnie jednak wymagają, by obsługujące je procesory nie zużywały zbyt dużo energii i nie wyczerpywały baterii po kilku godzinach. Kal-El ma pojawić się na rynku jeszcze w bieżącym roku. http://www.youtube.com/watch?v=eBvaDtshLY8
  21. VIA zaprezentowała najbardziej energooszczędny, jak twierdzi, czterordzeniowy procesor x86. Układ taktowany zegarem o częstotliwości 1,2 GHz charakteryzuje się TDP rzędu 27,5 wata.VIA QuadCore to 64-bitowy układ wyposażony w technologię Adaptive Overclocking, 4 megabajty pamięci L2 oraz szynę V4 1333MHz. Kość wykonano w 40-nanometrowym procesie technologicznym, obsługuje ona technologię wirtualizacji VIA VT oraz VIA PadLock z Advanced Cryptography Engine, dzięki czemu zapewnia najszybsze z dostępnych szyfrowanie AES. Układ korzysta też z algorytmow SHA-1, SHA-256, SHA-384 oraz SHA-512.
  22. Samsung zapowiedział, że do końca bieżącego roku wypuści na rynek smartfon z dwurdzeniowym procesorem, taktowanym zegarem o częstotliwości 2 GHz. Obecnie najbardziej wydajnym procesorem w smartfonach jest dwurdzeniowy układ taktowany 1,2-gigahercowym zegarem, zastosowany w telefonie Galaxy S II. Na razie nie wiadomo, jaka kość znajdzie się w zapowiadanym telefonie Samsunga. Być może będzie to procesor z rodziny Exynos, którą Samsung pokazał w lutym. Wiadomo jednak, że jej wydajność będzie większa, niż wydajność procesorów spotykanych w wielu pecetach czy notebookach.
  23. Naukowcy z Electro-Optics Center (EOC) Material Division na Pennsylvania State University stworzyli 100-milimetrowy plaster grafenowy. To niezwykle ważny krok w kierunku wykorzystania grafenu do budowy urządzeń elektronicznych. Grafen to dwuwymiarowa forma grafitu, w której elektrony poruszają się znacznie szybciej niż w krzemie. Ocenia się, że dzięki zastąpieniu krzemu grafenem uda się stworzyć procesory, które będą od 100 do 1000 razy bardziej wydajne, od obecnie wykorzystywanych. David Snyder i Randy Cavalero z EOC wykorzystali proces znany jako sublimacja krzemowa. Podgrzewali oni plastry z węglika krzemu tak długo, aż krzem przemieścił się z jego powierzchni i pozostała na niej warstwa grafenu o grubości 1-2 atomów. Dotychczas udawało się to uzyskać na 50-miliometrowym plastrze. Teraz przeprowadzono eksperyment z plastrem o średnicy 100 milimetrów. To największe dostępne na rynku plastry krzemowe. Jak poinformował Joshua Robinson, naukowcy z Penn State umieszczają teraz na plastrze tranzystory i wkrótce rozpoczną testy wydajności. Ich celem jest zbliżenie się do maksymalnej teoretycznej wydajności grafenu wykonanego z węgliku krzemu. Elektrony powinny poruszać się w nim około 100-krotnie szybciej niż w krzemie. To jednak wymaga bardzo czystego materiału, przed uczonymi zatem sporo pracy. Z kolei inna grupa specjalistół już zaczęła prace nad urządzeniami i technologiami, które pozwolą produkować grafenowe plastry z 200-milimetrowych plastrów krzemowych.
  24. Firma Calxeda ujawniła pierwsze szczegóły na temat procesora ARM, który ma pozwolić na tworzenie serwerów wykorzystujących do 480 rdzeni ARM. Calxeda chce zbudować czterordzeniową kość, przeznaczoną do pracy w 120-procesorowych serwerach w formacie 2U. Nowa kość powstanie na architekturze Cortex-A9. Każdy z procesorów ARM takiego serwera zostanie wyposażony w łącza pozwalające na komunikację pomiędzy węzłami komputera oraz w pamięć DRAM. Pojedynczy węzeł ma potrzebować do pracy jedynie 5 watów mocy. Calxeda pracuje też nad oprogramowaniem dla procesorów ARM. Jej przedstawiciele zapewniają zatem, że "gdy serwery z układami Calxedy trafią na rynek, wkrótce potem będzie można kupić też oprogramowanie".
  25. Australijczycy skonstruowali uprząż, która pozwala na zdalne sterowanie psem, który nie widząc opiekuna, może wykonywać skomplikowane zadania (Personal Ubiquitous Computing). Z naszym systemem nie trzeba się znajdować w zasięgu wzroku psa – podkreśla prof. David M. Bevly z Auburn University. Kiedyś urządzenia do zdalnego sterowania testowano na innych gatunkach zwierząt, poza tym wymagały one wszczepiania elektrod. Tymczasem zespół z antypodów wpadł na pomysł rozwiązania całkowicie zewnętrznego, które pozwala kierować w czasie rzeczywistym wytrenowanymi psami. W skład uprzęży wchodzą GPS, czujniki, procesor i modem radiowy, który łączy się bezprzewodowo z komputerem. Plecaczek lekko wibruje po prawej lub lewej stronie i wydaje różne dźwięki. System przetestowano na labradorze o imieniu Major, uczestniku programów wdrażanych przez uczelniany Canine Detection Research Institute. Okazało się, że psu często udawało się dotrzeć do celu oddalonego o kilkaset metrów. Major podążał we właściwym kierunku przez 80% czasu, a komputer wydawał właściwe polecenia w 99% sytuacji. Obecnie zespół prowadzi testy z przeprowadzaniem psa przez bardziej złożone zadania, a także na większe odległości (od 5 do 6,5 km). Bevly widzi wiele zastosowań dla swojego wynalazku. Wspomina o wysyłaniu psów na tereny działania karteli narkotykowych czy z lekami do żołnierzy na polu walki. Dzięki uprzężom jedna osoba mogłaby też na lotnisku, przejściu granicznym itp. zawiadywać działaniami wielu czworonogów. William Helton z Uniwersytetu w Canterbury, specjalista ds. ergonomii psów, dodaje, że mając wgląd w ruchy psa, opiekun czy trener będzie wiedzieć, czy jego pupil nie jest np. zbyt zdenerwowany lub czy nie stracił z jakiegoś powodu zainteresowania zadaniem.
×
×
  • Dodaj nową pozycję...