Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'procesor'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 140 results

  1. W laboratoriach IBM-a w Zurichu trwają prace nad układem scalonym, który wykorzystuje płyn do pracy oraz chłodzenia. Ludzki mózg jest 10 000 razy gęściej upakowany i wydajny niż jakikolwiek współczesny komputer. Jest to możliwe dzięki temu, iż wykorzystuje jedną, niezwykle efektywną, sieć połączeń kapilarnych i krwionośnych, które jednocześnie odbierają ciepło i transportują energię - mówi Bruno Michel, który kieruje pracami zespołu badawczego. Jeśli IBM-owi uda się osiągnąć założony cel to pewnego dnia takie maszyny jak superkomputer Watson uda się zamknąć w kieszonkowym urządzeniu przenośnym. Michel i jego zespół chcą zbudować trójwymiarowy układ scalony składający się z tysięcy kości ułożonych jedna na drugiej. Pomiędzy każdymi dwoma kośćmi ma znaleźć się para struktur wypełnionych płynem. Jedna z tych sieci będzie zawierała naładowany płyn, zapewniający układowi zasilanie, druga zaś będzie odpowiedzialna za odprowadzanie tego płynu gdy już przekaże on swój ładunek i odbierze ciepło z układu. Wykorzystanie płynów do chłodzenia układów 3D nie jest niczym nowym. Niezwykłym pomysłem badaczy z IBM-a jest użycie tego samego płynu do zasilania układów. Do zwiększenia wydajności maszyn HPC (high performance computing) koniecznie jest umieszczanie układów bliżej siebie. Ale zasilanie ich za pomocą płynu to niebadany dotychczas obszar. Nie wykracza to całkowicie poza wyobraźnię. Nie widzę powodów, dla których nie miałoby to działać, ale nikt nigdy czegoś takiego nie próbował - mówi Mark Zwolinski z University of Southampton. Superkomputer Watson wymaga do pracy 85 kilowatów i jest 10-krotnie większy od dużej lodówki. Michel uważa, że wykorzystanie płynu do chłodzenia i zasilania pozwoli na znaczące zredukowanie poboru mocy i zmniejszenie wielkości urządzenia. Uczeni z IBM-a chcą pokazać prototyp swojego układu już w 2014 roku. Jeśli im się to uda, Watson zagości w naszych kieszeniach.
  2. HP ma zamiar stworzyć do 2017 roku 256-rdzeniowy procesor Corona, którego rdzenie będą komunikowały się ze sobą za pomocą łączy optycznych. Taka kość miałaby wykonywać 10 biliardów operacji zmiennoprzecinkowych na sekundę, zatem wydajność pięciu układów dorównywałaby wydajności współczesnych superkomputerów. Poszczególne rdzenie wymieniałyby dane z prędkością 20 terabitów na sekundę, a komunikacja między procesorem a pamięcią odbywałaby się z prędkością 10 Tb/s. Co więcej Corona zużywałaby znacznie mniej energii niż współczesne układy, dzięki czemu superkomputerom łatwiej będzie pokonać barierę eksaflopsa (1018 operacji zmiennoprzecinkowych na sekundę). Obecnie istnieją dwa główne problemy, które znacznie utrudniają zwiększanie wydajności układów scalonych w dotychczasowym tempie. Im więcej rdzeni w procesorze, tym trudniej jest koordynować ich pracę i komunikować je ze sobą. Bardzo trudno jest uzyskać układ posiadający więcej niż 16 rdzeni, który pracowałby jak procesor równoległy. Drugi poważny problem to olbrzymi pobór mocy, który ma miejsce podczas przesyłania danych od i do układów pamięci. Obie te przeszkody można rozwiązać za pomocą zintegrowanej fotoniki, czyli laserów i łączy optycznych wbudowanych w układ scalony. Przykładem takiej kości może być zaprezentowany właśnie przez IBM-a Holey Optochip. Nad podobnymi rozwiązaniami pracują też Intel (projekt Runnemede), Nvidia (Echelon), Sandia National Laboratory (X-calibur) czy MIT (Angstrom). Najważniejszą jednak rolę odgrywa zintegrowana fotonika w projekcie Corona. Problem w tym, że część potrzebnej technologii wciąż jeszcze nie została opracowana. Jednak co się powoli zmienia. Od dłuższego już czasu informujemy o postępach na tym polu. Przez ostatnie lata wiele firm pracowało nad poszczególnymi podzespołami, teraz zaczęto łączyć je w układy. To jak przejście od tranzystora do układu scalonego - stwierdził Marco Fiorentino z HP Labs. HP ma zamiar w każdy rdzeń Corony wbudować laser, który będzie wysyłał informacje do wszystkich innych rdzeni. Jak obliczają specjaliści wykorzystanie elektroniki do stworzenia 10-terabitowego kanału przesyłu danych pomiędzy CPU a pamięcią wymagałoby 160 watów mocy. Zdaniem HP, jeśli zastąpimy elektronikę zintegrowaną fotoniką, pobór mocy spadnie do 6,4 wata. Zmniejszenie poboru mocy to dla superkomputerów niezwykle istotna sprawa. Najpotężniejsza maszyna na świecie, japoński K Computer, potrzebuje obecnie do pracy 12,6 MW. Jego wydajność wynosi 10,5 PFlops, trzeba by ją zatem zwiększyć niemal 100-krotnie by osiągnąć barierę eksaflopsa. Zintegrowana fotonika przyczyni się również do obniżenia poboru mocy przez serwery i urządzenia telekomunikacyjne, co odgrywa olbrzymią rolę w internecie, którym przesyłamy coraz większą ilość danych. Z czasem lasery i łącza optyczne mogą trafić też do urządzeń przenośnych, pozwalający na ich dłuższą pracę bez potrzeby ładowania baterii. Również, co niezwykle istotne, w fotonice nie występuje problem interferencji elektromagnetycznej, zatem jej stosowanie np. w samochodach czy samolotach będzie bezpieczniejsze niż stosowanie urządzeń elektronicznych. Problemem jest też stworzenie miniaturowych laserów, które można będzie budować za pomocą dostępnych technologii. Jako, że z krzemu nie można generować światła, specjaliści badają inne materiały, przede wszystkim arsenek galu i fosforek indu. Ostatnio MIT zainteresował się też germanem. Trwają również intensywne prace nad rozwojem technologii TSV (through silicon vias). Pozwoli się ona pozbyć szyn, za pomocą których łączą się ze sobą poszczególne układy. Szyny stanowią dla danych wąskie gardło i zużywają sporo energii. TSV pozwala układać na sobie układy scalone (powstają w ten sposób układy 3D) i łączyć je kablami poprowadzonymi wewnątrz takiego stosu układów, co zwiększa przepustowość, a jednocześnie zmniejsza zużycie prądu i pozwala na zaoszczędzenie miejsca na płycie głównej. W projekcie Corona HP chce połączyć obie technologie - 3D i zintegrowaną fotonikę. Dzięki temu ma powstać 256-rdzeniowy procesor zbudowany z 64-rdzeniowych klastrów. Całość zostanie wykonana w procesie 16 nanometrów i będzie połączona łączami optycznymi.
  3. Intel zaprezentował 50-rdzeniowy układ Knights Corner o wydajności 1 teraflopsa. Przed 14 laty taką wydajność miał najpotężniejszy wówczas superkomputer świata, ASCI Red. Nowy procesor Intela ma więc taką moc obliczeniową jak 7264 ówczesne układy. Procesor Knights Corner wykorzystuje rozwiązania opracowane na potrzeby układu Larrabee. Będzie on produkowany w technologii 22 nanometrów i skorzysta z trójbramkowych tranzystorów. Intel ma zamiar użyć Knights Corner to zbudowania przed rokiem 2018 superkomputera, którego wydajność będzie liczone a eksaflopsach. Knights Corner trafi na rynek już w przyszłym roku, a w 2013 roku rozpocznie pracę w 10-petaflopsowym superkomputerze Stampede zamówionym przez University of Texas.
  4. Firma Adapteva ogłosiła, że wkrótce zacznie produkować próbną wersję 64-rdzeniowego procesora wykonanego w technologii 28 nanometrów. Układ E64G4 korzysta z technologii Epiphany, która została stworzona pod kątem takich zastosowań jak rozpoznawanie mowy czy przetwarzanie grafiki. Adapteva specjalizuje się w tworzeniu aplikacji na rynek finansowy, wojskowy i inżynieryjny, teraz zaś chce zaistnieć na rynku urządzeń przenośnych. W firmę zainwestowano zaledwie 2 miliony dolarów, teraz przygotowuje ona swój czwarty układ scalony i wkrótce przestanie przynosić straty. Andreas Olofsson, założyciel i szef Adaptevy mówi, że mimo iż same maski litograficzne kosztują miliony dolarów, to przedsiębiorstwo może działać, gdyż wybrało model multiproject wafer (MPW), w którym koszty masek podzielone są pomiędzy klientów firmy. Ponadto Adapteva działa na rynkach, na których produkuje się niewielkie serie drogich układów. Pojedynczy procesor może kosztować nawet 1000 dolarów. Od lata 2011, kiedy to Adapteva wyprodukowała swój pierwszy układ scalony, 16-rdzeniowy procesor wykonany w technologii 65 nanometrów, wpływy przedsiębiorstwa wyniosły milion dolarów. Obecnie ma powstać czwarta generacja układu Epiphany. Kość będzie składała się z 64 rdzeni RISC, z których każdy zostanie wyposażony w 32 kilobajty pamięci podręcznej. Całość zmieści się na powierzchni 8,2 mm2 i będzie, jak twierdzi Adapteva, najbardziej efektywnym energetycznie układem scalonym. Jego wydajność ma wynieść 70 GFlops/wat. Kość taktowana będzie zegarem o częstotliwości do 700 MHz. Ambicje firmy jednak się na tym nie kończą. Architektura Epiphany ma umożliwić produkcję procesora składającego się z 4096 rdzeni. Układy na zamówienie Adaptevy są produkowane w fabrykach Globalfoundries.
  5. Liczne źródła informują, że Sony pracuje nad konsolą PlayStation 4 i nie ma zamiaru wykorzystywać w niej ani procesora Cell ani żadnego układu na nim opartego. Nie wiadomo, jaki procesor miałby znaleźć się w przyszłej konsoli. Plotka głosi, że japoński koncern porzuci układy graficzne Nvidii i będzie korzystał z rozwiązań AMD. Cell jest dzieckiem Kena Kutaragi, twórcy PlayStation, i był produkowany wspólnie przez Sony, Toshibę i IBM-a. Kutaragi opuścił jednak Sony, więc firma postanowiła zrezygnować z tego układu. Informacja taka powinna ucieszyć developerów, którzy skarżyli się, że Cell jest trudny w oprogramowaniu. Z procesorem tym wiązano niegdyś olbrzymie nadzieje, spodziewano się, że trafi do serwerów i urządzeń medycznych. Ambitne plany nigdy nie zostały zrealizowane, a sam procesor w dużej mierze przyczynił się do niepowodzenia PlayStation 3. Konsola, której poprzednie wersje były największymi przebojami w swojej kategorii, sprzedaje się gorzej niż urządzenia konkurencji. Przed wszystkimi twórcami konsoli, nie tylko przed Sony, stoi trudne wyzwanie. Twórcy najnowszej generacji wykorzystywanego w wielu grach silnika Unreal twierdzą bowiem, że najnowsze konsole będą musiały być co najmniej 10-krotnie bardziej wydajne niż PS3 czy Xbox 360.
  6. Rozmawiamy z Adamem Kiepulem, absolwentem Wydziału Elektroniki Politechniki Wrocławskiej (1996), który od 1997 pracuje w Dolinie Krzemowej jako inżynier aplikacji procesorów i rdzeni MIPS, kolejno w Philips Semiconductors, NEC Electronics oraz PMC-Sierra. Na czym polega Pańska praca? Inżynier aplikacji musi odnaleźć się w różnych rolach. Podstawowym obowiązkiem jest udzielanie wsparcia technicznego klientom, począwszy od odpowiedzi na proste pytania o architekturę czy cechy użytkowe procesora aż po rozwiązywanie złożonych problemów technicznych. Na przykład jeśli system klienta nie pracuje prawidłowo to inżynier aplikacji jest na „pierwszej linii frontu” - współpracuje z deweloperami po stronie klienta, aby zidentyfikować sekwencję instrukcji i innych zdarzeń, która z takiego czy innego powodu nie daje spodziewanych rezultatów. Następnie, jeśli okaże się, że wina nie leży po stronie programu czy problemu z płytą lub innym komponentem, tylko po stronie procesora, inżynier aplikacji współpracuje z projektantami poszczególnych części procesora, aby znaleźć błąd i opracować jego „obejście”. Do obowiązków należy także opracowywanie specjalnych przykładowych programów specyficznych dla danego procesora i jego architektury, testowanie i ocena narzędzi (kompilatorów, debuggerów itp.), a czasem również ręczna optymalizacja kodu klienta w celu uzyskania lepszej wydajności na danym procesorze. Do tego dochodzi tworzenie wszelkiego rodzaju dokumentacji jak instrukcje użytkownika, noty aplikacyjne itp., opracowywanie i przeprowadzanie szkoleń technicznych dla klientów, pomoc i towarzyszenie specjalistom od marketingu czy sprzedaży w spotkaniach z klientami, reprezentowanie firmy na specjalistycznych targach, seminariach itd. Jak wygląda droga z polskiej politechniki do Krzemowej Doliny? Czego się trzeba uczyć, by pracować w takiej firmie jak Pańska? Wydaje mi się, że zawsze najważniejsze jest, aby mieć jasno postawiony cel i wytrwale pracować nad jego realizacją. Przydatny jest także łut szczęścia. To brzmi na pewno jak banał, ale w wielu przypadkach naprawdę istotne jest to, aby znaleźć się w odpowiednim miejscu w odpowiednim czasie i do tego jeszcze być na to w pełni przygotowanym. Techniką, a elektroniką i komputerami w szczególności, interesowałem się od dzieciństwa. Mając chyba 13 lat przeczytałem w jednym z pierwszych numerów magazynu „Bajtek” historię o Jobsie i Wozniaku czyli o powstaniu firmy Apple. Pamiętam, że ten właśnie artykuł oraz nieco późniejszy - o Dolinie Krzemowej i jej „klimatach”, jak się to dziś mówi - były dla mnie niczym swego rodzaju olśnienie i stały się wyraźnymi impulsami, które spowodowały, że nagle zrozumiałem, iż kiedyś po prostu muszę „tam” być. Wtedy znaczyło to znacznie więcej niż dziś. Były to ostatnie lata PRL-u i dla większości ludzi takie postanowienie nastolatka, który nie skończył jeszcze 8-klasowej wówczas podstawówki, wydawało się zwyczajną dziecinną mrzonką. Jednak wszystko co wtedy i później robiłem, było kolejnymi logicznymi krokami przybliżającymi mnie do tego celu. Pilnie uczyłem się matematyki, fizyki oraz języka angielskiego, a jednocześnie pochłaniałem literaturę i magazyny z dziedziny elektroniki i informatyki. Archaiczny już dziś język BASIC poznałem jeszcze koło 6. klasy dzięki kursom Rolanda Wacławka w „Młodym Techniku”. Pod koniec podstawówki znałem już język maszynowy procesora Z80 (serca m.in. komputera Sinclair ZX Spectrum) jak również podstawy techniki cyfrowej i systemów mikroprocesorowych. W liceum nauczyłem się jeszcze języka maszynowego procesorów 6502 / 6510, na których oparte były popularne wówczas 8-bitowe komputery domowe Atari i Commodore. Już wtedy potrafiłem „od zera” napisać złożony program w assemblerze, wykorzystujący rejestry sprzętu, przerwania itp. Taka wiedza i doświadczenie są niezwykle istotne i ogromnie procentują podczas studiów, jak również później – już w karierze zawodowej. Wydaje mi się, ze ogromną zaletą, ale też jednocześnie swego rodzaju słabością polskiego systemu kształcenia technicznego na poziomie wyższym jest ogromny nacisk na podstawy teoretyczne. Na studiach zapoznajemy się z teoriami, które najwybitniejsze umysły opracowały np. 80 lat temu, bez których dziś po prostu nie byłoby elektroniki i informatyki. To z jednej strony wymusza i kształtuje pewną dyscyplinę intelektualną, sposób myślenia oraz zdobywania wiedzy. Z drugiej jednak strony na polskich politechnikach, w porównaniu z zachodnimi, poświęca się znacznie mniej czasu na stronę praktyczną i faktyczne przygotowanie do zawodu inżyniera. Być może teraz jest nieco inaczej, ale tak było w połowie lat 90., kiedy ja kończyłem studia. Jeśli miałbym doradzać dzisiejszym uczniom i studentom, którzy chcieliby przeżyć podobną przygodę za granicą, to zachęcałbym do dwóch rzeczy: język(i) oraz praktyczna wiedza związana z zawodem i daną specjalnością. Jeśli pracuje się w kraju anglosaskim to oczywiście wystarczy angielski, jednak jeśli myśli się o pracy np. we Francji, Szwajcarii czy Norwegii to równie ważna jest znajomość miejscowego języka. Jeśli ktoś chciałby projektować procesory, to na pewno musi opanować nie tylko teoretyczne podstawy elektroniki i techniki cyfrowej, ale także języki opisu układów jak VHDL i Verilog, jak również języki programowania, zwłaszcza skryptowe jak np. PERL. Jeszcze jedna uwaga: nie chcę nikogo zniechęcać, ale obawiam się, że dziś dostać się do Doliny Krzemowej jest dużo trudniej niż w r. 1997, kiedy ja tu przyjechałem. Mój przypadek jest dobrą ilustracją tego, że niezbędne są sprzyjające okoliczności oraz szczęście. W 1996 skończyłem Elektronikę na Politechnice Wrocławskiej. Moją specjalizacją były oczywiście systemy mikroprocesorowe. Jeszcze pod koniec studiów wysłałem do oddziału Philips Semiconductors w Zurychu podanie o przyjęcie na praktykę i, ku memu ogromnemu zaskoczeniu, zostałem przyjęty, mimo, że liczba miejsc jest bardzo ograniczona, a liczba podań jest naprawdę ogromna. Jako praktykant przez 4 miesiące zajmowałem się testowaniem układów scalonych, które sterują wyświetlaczami LCD w telefonach komórkowych. Miałem okazję wykazać się tam wiedzą zdobytą podczas studiów, ale myślałem wciąż o prawdziwych procesorach, a kiedy dowiedziałem się, że oddział w Dolinie Krzemowej poszukuje inżyniera do grupy projektującej rdzenie MIPS, bez wahania wysłałem swoje CV. Po dwóch rozmowach kwalifikacyjnych przez telefon, dzięki opinii przełożonych z Zurychu otrzymałem propozycję pracy w tej grupie jako inżynier aplikacji. Był to moment przełomowy. Jednak należy pamiętać, że były to inne czasy – szczyt prosperity w Dolinie Krzemowej, kiedy panował prawdziwy głód wysoko wykwalifikowanych pracowników i sprowadzano ich z całego świata, w oparciu o specjalną wizę H1B, sponsorowaną przez pracodawcę, który musiał udowodnić, iż nie jest w stanie znaleźć odpowiednio wykwalifikowanego kandydata na dane stanowisko wśród obywateli USA. Od tamtej pory jednak wiele się zmieniło. Wielki upadek „bańki” tzw. dot-com’ów, a także przeniesienie licznych stanowisk pracy do Indii i Chin zaowocowały masowymi zwolnieniami. Wielu fachowców wróciło do swoich krajów, a liczni Amerykanie o wysokich kwalifikacjach nie mogą obecnie znaleźć pracy. Obawiam się, że w tej sytuacji moja droga, tzn. poprzez wizę H1B, dziś jest praktycznie niemożliwa. Jednak wciąż można się tu dostać. Jeden z możliwych sposobów to studia na amerykańskiej uczelni. To jednak wciąż nie gwarantuje, iż później będzie można tu legalnie pozostać i podjąć pracę. Dlatego lepszym rozwiązaniem wydaje mi się podjęcie pracy w Polsce lub innym kraju Unii, a następnie przeniesienie do oddziału amerykańskiego. Nie muszę też chyba wspominać, że zdolni naukowcy pracujący na polskich uczelniach mają dodatkowe atuty i możliwości współpracy z firmami z Doliny.
  7. W marcu na rynek trafi długo oczekiwany ośmiordzeniowy procesor Xeon przeznaczony dla dwuprocesorowych platform. Układ będzie korzystał z architektury SandyBridge. Xeon E5 „Sandy Bridge-EP“ zostanie wyposażony też w czterokanałowy kontroler pamięci oraz nawet 20 megabajtów cache’u. Z nieoficjalnych informacji wynika, że jego premiera nastąpi 6 marca bieżącego roku. Nowy Xeon E5 wejdzie w skład przyszłej platformy Romley, czyli znanej już Intel X79, która zostanie rozbudowana o obsługę dwóch procesorów, SAS i inne rozwiązania przygotowane pod kątem serwerów i stacji roboczych. Procesor będzie współpracował z podstawką LGA2011, jednak nie wiadomo na razie, czy będzie kompatybilny ze standardowymi płytami głównymi dla desktopów. Obecnie posiadacze komputerów osobistych mogą korzystać jedynie z sześciordzeniowych procesorów Intela. Podobno niektórzy producenci płyt głównych przygotowują urządzenia przeznaczone dla desktopów, współpracujące z Xeonem E5.
  8. Intel przygotowuje się do debiutu 22-nanometrowych procesorów Ivy Bridge. Jednocześnie koncern zakończy produkcję wielu starszych modeli procesorów. Ivy Bridge, który korzysta z technologii tranzystorów 3D (FinFET) ma trafić na rynek 8 kwietnia. Tymczasem ze sklepów będą powoli znikały 32-nanometrowe procesory korzystające z architektury Westmere i Sandy Bridge. Kości, których produkcja zostanie wstrzymana to Celeron 430, 450 i E3300, Core i3-530, Core i5-655K, 660, 661, 670, 680, 750S, 760 i 2300, Core i7-860S, 870, 870S, 875K, 880S, 930, 950 i 960, Core Duo E7500 i E7600, Pentium E550, E5700, E6600 oraz G960. Jak można zauważyć, decyzja Intela oznacza koniec produkcji procesorów dla podstawek LGA1156 oraz LGA1366. Na rynku pozostaną układy dla podstawek LGA1155 i LGA2011, co uprości życie zarówno klientom, jak i producentom płyt głównych.
  9. AMD zaprezentowała dzisiaj kartę graficzną Radeon HD 7970. Firma twierdzi, że to najbardziej wydajna jednoprocesorowa karta na świecie, która korzysta z jedynego GPU wykonanego w technologii 28 nanometrów. Procesor wykorzystuje nową mikroarchitekturę Graphics Core Next. W porównaniu z poprzednią generacją architektura ta jest o 150% bardziej wydajna na każdy milimetr kwadratowy powierzchni. Bazujący na Tahiti GPU kość Radeon HT 7970 korzysta z 2048 procesorów strumieniowych, 384-bitowej szyny pamięci GDDR5 i 4,31 miliarda tranzystorów. Powierzchnia procesora wynosi zaledwie 365 milimetrów kwadratowych. Układ Radeon 7970 taktowany jest zegarem o częstotliwości 925 megaherców, a jego teoretyczna szczytowa wydajność wynosi 3,79 teraflopsa. To nieco ponad teraflops więcej niż wydajność karty Radeon 6970. Szyna pamięci nowej karty taktowana jest 1,375-gigahercowym zegarem, co pozwala jej na przesłanie 264 gigabajtów danych w ciągu sekundy. Przepustowość szyny 6970 wynosi 176 GB/s.
  10. Jak wynika z informacji zdobytych przez Reutera, procesor A5, z którego korzystają iPhone 4S oraz iPad 2, jest produkowany w Austin w Teksasie. Układ powstaje w nowej fabryce firmy Samsung Electronics. W zbudowanie zakładu, który pełną moc produkcyjną osiągnął w bieżącym miesiącu, zainwestowano 3,6 miliarda dolarów. W tej samej fabryce tworzone są też układy pamięci NAND. Dotychczas Apple znane było z tego, że podzespoły z których budowane są firmowe produkty, powstają w Azji. Ani Apple, ani Samsung nie komentują doniesień o przeniesieniu produkcji. Samsung to niejedyna firma z działu wysokich technologii, która działa w stolicy Teksasu. Znajdują się tam też siedziby Intela, AMD czy ARM-a. Do Austin przyciąga przedsiębiorstwa obecność dobrze wykształconych kadr, których dopływ zapewnia University of Texas. Ponadto, jak informowaliśmy przed kilkoma miesiącami, dotychczasowa "fabryka świata" - Chiny - stają się coraz droższe, co powoduje, iż coraz więcej firmy zastanawia się nad przenoszeniem produkcji w inne regiony. Apple to z jednej strony jeden z największych klientów Samsunga, a z drugiej - jeden z napoważniejszych rywali. Firmy toczą wiele bardzo ostrych sporów patentowych.
  11. Barcelońskie Centrum Superkomputerowe, w którym stoi Mare Nostrum, niegdyś najpotężniejszy komputer Europy, ogłosiło, że ma zamiar zbudować superkomputer wykorzystujący procesory ARM. Byłaby to pierwsza maszyna tego typu. Komputer będzie wykorzystywał układy Nvidii Tegra 3 (znane wcześniej jako Kal-El) oraz CUDA GPU. Procesory graficzne CUDA będę używane do przyspieszania obliczeń wykonywanych przez Tegra 3. Użycie układów ARM w miejsce najczęściej wykorzystywanych kości x86 ma na celu zmniejszenie poboru energii przez komputer. Obecnie używane superkomputery wymagają do pracy olbrzymich ilości energii. Japoński superkomputer K, pierwsza maszyna, której moc obliczeniowa przekroczyła 10 petaflopsów, potrzebuje niemal 13 megawatów. Wraz ze wzrostem mocy obliczeniowej rosną też rachunki za energię, a tymczasem trwa budowa kolejnych supermaszyn o mocy powyżej 10 PFlops.
  12. Inżynierowie z University of California, Berkeley, zaprezentowali sposób na zmniejszenie minimalnego napięcia koniecznego do przechowywania ładunku w kondensatorze. Im szybciej działa komputer, tym cieplejszy się staje. Tak więc kluczowym problemem w produkcji szybszych mikroprocesorów jest spowodowanie, by ich podstawowy element, tranzystor, był bardziej energooszczędny - mówi Asif Khan, jeden z autorów odkrycia. Niestety tranzystory nie stają się na tyle energooszczędne, by dotrzymać kroku zapotrzebowaniu na coraz większe moce obliczeniowe, co prowadzi do zwiększenia poboru mocy przez mikroprocesory - dodaje uczony. W laboratorium Sayeefa Salahuddina, w którym jest zatrudniony Khan, od 2008 roku trwają prace nad zwiększeniem wydajności tranzystorów. W końcu, dzięki wykorzystaniu ferroelektryków, udało się osiągnąć założony cel. Ferroelektryki przechowują zarówno ładunki dodatnie jak i ujemne. Co więcej, składują je nawet po odłączeniu napięcia. Ponadto ich bardzo przydatną cechą jest możliwość zmiany polaryzacji elektrycznej za pomocą zewnętrznego pola elektrycznego. Naukowcy z Berkeley udowodnili, że w kondensatorze, w którym ferroelektryk połączono z dielektrykiem, można zwiększyć ładunek zgromadzony dla napięcia o konkretnej wartości. To prototypowe prace, które pozwolą nam wykorzystać zjawisko ujemnej pojemności, by zmniejszyć napięcie wymagane przez współczesne tranzystory - mówi Salahuddin, który już będąc studentem zastanawiał się nad zjawiskiem ujemnej pojemności w ferroelektrykach. Jeśli wykorzystamy to zjawisko do stworzenia niskonapięciowego tranzystora bez jednoczesnego zmniejszania jego wydajności i szybkości pracy, możemy zmienić cały przemysł komputerowy - dodaje uczony. Naukowcy połączyli ferroelektryk cyrkonian-tytanian ołowiu (PZT) z dielektrykiem tytanianem strontu (STO). Następnie do PZT-STO przyłożyli napięcie elektryczne i porównali jego pojemność elektryczną do pojemności samego STO. W strukturze z ferroelektrykiem zaobserwowaliśmy dwukrotne zwiększenie różnicy potencjałów elektrycznych przy tym samym przyłożonym napięciu, a różnica ta może być jeszcze większa - mówią uczeni. Zwiększająca się gęstość upakowania tranzystorów i zmniejszające się ich rozmiary nie pociągnęły za sobą odpowiedniego spadku wymagań co do poboru prądu potrzebnego do pracy. W temperaturze pokojowej do 10-krotnego zwiększenia ilości prądu przepływającego przez tranzystor wymagane jest napięcie co najmniej 60 miliwoltów. Jako, że różnica pomiędzy stanami 0 i 1 w tranzystorze musi być duża, to do sterowania pracą tranzystora konieczne jest przyłożenie napięcia nie mniejszego niż mniej więcej 1 wolt. To wąskie gardło. Prędkość taktowania procesorów nie ulega zmianie od 2005 roku i coraz trudniej jest dalej zmniejszać tranzystory - mówi Khan. A im mniejsze podzespoły, tym trudniej je schłodzić. Salahuddin i jego zespół proponują dodać do architektury tranzystorów ferroelektryk, dzięki któremu można będzie uzyskać większy ładunek z niższego napięcia. Takie tranzystory będą wydzielały mniej ciepła, więc łatwiej będzie je schłodzić. Zdaniem uczonych warto też przyjrzeć się ferroelektrykom pod kątem ich zastosowania w układach DRAM, superkondensatorach czy innych urządzeniach do przechowywania energii.
  13. Jeszcze w bieżącym roku będzie można kupić androidowe tablety wykorzystujące czterordzeniowe procesory. Takie zapewnienie padło z ust Jen-Hsun Huanga, dyrektora wykonawczego Nvidii. Jego zdaniem takie urządzenia trafią do sklepów w czasie świąt. Na smartfony z czterodzeniowymi CPU trzeba będzie poczekać do przyszłego roku. Obecnie trzy czwarte tabletów Motoroli, LG i Toshiby korzysta z dwurdzeniowych kości Tegra 2 Nvidii. Nowy procesor, Kal-El, ma charakteryzować się dwukrotnie większą wydajnością podczas surfowania po internecie. Czterordzeniowy procesor może jednak sprawić kłopoty producentom tabletów. Obecnie zdecydowanym liderem na rynku jest iPad Apple'a. Inni producenci ciągle "gonią" iPada, starając się m.in. dotrzymać mu kroku pod względem czasu pracy na pojedynczym ładowaniu baterii. Zastosowanie czterordzeniowego CPU może oznaczać, że tablety staną się mniej atrakcyjne cenowo w porównaniu z ofertą Apple'a oraz zwiększy się ich zapotrzebowanie na energię. Inna sytuacja panuje na rynku smartfonów. Tam urządzenia z Androidem sprzedają się lepiej niż iPhone. Huang nie mówił jednak nic na temat czterordzeniowca Nvidii dla smartfonów, a inni producenci, jak Texas Instruments czy Qualcomm, zapowiadają tego typu układy na przyszły rok.
  14. University of Manchester i ARM chcą połączyć milion procesorów ARM, by symulować działanie ludzkiego mózgu. Specjaliści mówią, że uda się w ten sposób przeprowadzić symulację 1% mózgu. Pracami nad komputerem SpiNNaker kieruje Steve Furber, znany projektant procesorów ARM i pracownik naukowy University of Manchester. Do budowy maszyny zostaną wykorzystane procesory, które będą w liczbie 18 zamykane w pojedynczej obudowie. „Taka paczka zapewnia mocy peceta w małej przestrzeni i przy wykorzystaniu jednego wata" - oświadczył uniwersytet. Maszyna będzie symulowała pracę mózgu przesyłając niewielkie ilości danych. Naukowcy chcą dzięki niej lepiej zrozumieć, jak działa mózg. Psycholodzy już stworzyli sieci neuronowe, które symulują stany patologiczne. Używają ich do testowania różnych terapii, sprawdzania, która jest najbardziej efektywna - mówi Furber. Obecnie wiarygodność takich sieci jest ograniczona ich mocą obliczeniową, mamy jednak nadzieję, że SpiNNaker znacząco ją zwiększy. Nie wiemy, jak działa mózg jako system przetwarzający informacje i musimy się tego dowiedzieć. Mamy nadzieję, że nasza maszyna przyczyni się do poszerzenia wiedzy - dodaje.
  15. Nvidia opublikowała wideo pokazyjące prototypową grę Glowball, która ma być prezentacją możliwości czterordzeniowego procesora Kal-El dla urządzeń przenośnych. W grze, która korzysta z akcelerometra, sterujemy świecącą kulą za pomocą ruchów urządzenia. To wszystko jest symulowane w czasie rzeczywistym. Nie korzystamy z wcześniej przygotowywanych animacji - dowiadujemy się z wideo. Gra działa bardzo płynnie, chociaż z prezentowanego filmu nie dowiemy się, ile czasu mija pomiędzy poruszeniem urządzenia, a reakcją kuli. Na wideo widzimy, co dzieje się po przełączeniu trybu gry tak, by korzystała ona z dwóch, a nie czterech, rdzeni. Z gry praktycznie nie można korzystać. Nvidia zapewnia, że gdy Kal-El trafi do rąk użytkowników, będzie jeszcze bardziej wydajny. To układ prototypowy. Te, które trafią do produkcji będą o 25-30 procent szybsze - stwierdzono na filmie. Producenci procesorów mobilnych muszą mierzyć się z poważnym wyzwaniem. Użytkownicy smartfonów czy tabletów chętnie sięgają po gry komputerowe i chcą, by działały one równie płynnie i miały podobne możliwości, jak gry znane im z pecetów. Jednocześnie jednak wymagają, by obsługujące je procesory nie zużywały zbyt dużo energii i nie wyczerpywały baterii po kilku godzinach. Kal-El ma pojawić się na rynku jeszcze w bieżącym roku. http://www.youtube.com/watch?v=eBvaDtshLY8
  16. VIA zaprezentowała najbardziej energooszczędny, jak twierdzi, czterordzeniowy procesor x86. Układ taktowany zegarem o częstotliwości 1,2 GHz charakteryzuje się TDP rzędu 27,5 wata.VIA QuadCore to 64-bitowy układ wyposażony w technologię Adaptive Overclocking, 4 megabajty pamięci L2 oraz szynę V4 1333MHz. Kość wykonano w 40-nanometrowym procesie technologicznym, obsługuje ona technologię wirtualizacji VIA VT oraz VIA PadLock z Advanced Cryptography Engine, dzięki czemu zapewnia najszybsze z dostępnych szyfrowanie AES. Układ korzysta też z algorytmow SHA-1, SHA-256, SHA-384 oraz SHA-512.
  17. Samsung zapowiedział, że do końca bieżącego roku wypuści na rynek smartfon z dwurdzeniowym procesorem, taktowanym zegarem o częstotliwości 2 GHz. Obecnie najbardziej wydajnym procesorem w smartfonach jest dwurdzeniowy układ taktowany 1,2-gigahercowym zegarem, zastosowany w telefonie Galaxy S II. Na razie nie wiadomo, jaka kość znajdzie się w zapowiadanym telefonie Samsunga. Być może będzie to procesor z rodziny Exynos, którą Samsung pokazał w lutym. Wiadomo jednak, że jej wydajność będzie większa, niż wydajność procesorów spotykanych w wielu pecetach czy notebookach.
  18. Naukowcy z Electro-Optics Center (EOC) Material Division na Pennsylvania State University stworzyli 100-milimetrowy plaster grafenowy. To niezwykle ważny krok w kierunku wykorzystania grafenu do budowy urządzeń elektronicznych. Grafen to dwuwymiarowa forma grafitu, w której elektrony poruszają się znacznie szybciej niż w krzemie. Ocenia się, że dzięki zastąpieniu krzemu grafenem uda się stworzyć procesory, które będą od 100 do 1000 razy bardziej wydajne, od obecnie wykorzystywanych. David Snyder i Randy Cavalero z EOC wykorzystali proces znany jako sublimacja krzemowa. Podgrzewali oni plastry z węglika krzemu tak długo, aż krzem przemieścił się z jego powierzchni i pozostała na niej warstwa grafenu o grubości 1-2 atomów. Dotychczas udawało się to uzyskać na 50-miliometrowym plastrze. Teraz przeprowadzono eksperyment z plastrem o średnicy 100 milimetrów. To największe dostępne na rynku plastry krzemowe. Jak poinformował Joshua Robinson, naukowcy z Penn State umieszczają teraz na plastrze tranzystory i wkrótce rozpoczną testy wydajności. Ich celem jest zbliżenie się do maksymalnej teoretycznej wydajności grafenu wykonanego z węgliku krzemu. Elektrony powinny poruszać się w nim około 100-krotnie szybciej niż w krzemie. To jednak wymaga bardzo czystego materiału, przed uczonymi zatem sporo pracy. Z kolei inna grupa specjalistół już zaczęła prace nad urządzeniami i technologiami, które pozwolą produkować grafenowe plastry z 200-milimetrowych plastrów krzemowych.
  19. Firma Calxeda ujawniła pierwsze szczegóły na temat procesora ARM, który ma pozwolić na tworzenie serwerów wykorzystujących do 480 rdzeni ARM. Calxeda chce zbudować czterordzeniową kość, przeznaczoną do pracy w 120-procesorowych serwerach w formacie 2U. Nowa kość powstanie na architekturze Cortex-A9. Każdy z procesorów ARM takiego serwera zostanie wyposażony w łącza pozwalające na komunikację pomiędzy węzłami komputera oraz w pamięć DRAM. Pojedynczy węzeł ma potrzebować do pracy jedynie 5 watów mocy. Calxeda pracuje też nad oprogramowaniem dla procesorów ARM. Jej przedstawiciele zapewniają zatem, że "gdy serwery z układami Calxedy trafią na rynek, wkrótce potem będzie można kupić też oprogramowanie".
  20. Australijczycy skonstruowali uprząż, która pozwala na zdalne sterowanie psem, który nie widząc opiekuna, może wykonywać skomplikowane zadania (Personal Ubiquitous Computing). Z naszym systemem nie trzeba się znajdować w zasięgu wzroku psa – podkreśla prof. David M. Bevly z Auburn University. Kiedyś urządzenia do zdalnego sterowania testowano na innych gatunkach zwierząt, poza tym wymagały one wszczepiania elektrod. Tymczasem zespół z antypodów wpadł na pomysł rozwiązania całkowicie zewnętrznego, które pozwala kierować w czasie rzeczywistym wytrenowanymi psami. W skład uprzęży wchodzą GPS, czujniki, procesor i modem radiowy, który łączy się bezprzewodowo z komputerem. Plecaczek lekko wibruje po prawej lub lewej stronie i wydaje różne dźwięki. System przetestowano na labradorze o imieniu Major, uczestniku programów wdrażanych przez uczelniany Canine Detection Research Institute. Okazało się, że psu często udawało się dotrzeć do celu oddalonego o kilkaset metrów. Major podążał we właściwym kierunku przez 80% czasu, a komputer wydawał właściwe polecenia w 99% sytuacji. Obecnie zespół prowadzi testy z przeprowadzaniem psa przez bardziej złożone zadania, a także na większe odległości (od 5 do 6,5 km). Bevly widzi wiele zastosowań dla swojego wynalazku. Wspomina o wysyłaniu psów na tereny działania karteli narkotykowych czy z lekami do żołnierzy na polu walki. Dzięki uprzężom jedna osoba mogłaby też na lotnisku, przejściu granicznym itp. zawiadywać działaniami wielu czworonogów. William Helton z Uniwersytetu w Canterbury, specjalista ds. ergonomii psów, dodaje, że mając wgląd w ruchy psa, opiekun czy trener będzie wiedzieć, czy jego pupil nie jest np. zbyt zdenerwowany lub czy nie stracił z jakiegoś powodu zainteresowania zadaniem.
  21. Mike Muller, prezes ds. technologicznych firmy ARM stwierdził, że jego przedsiębiorstwo ma swój udział zarówno w powstaniu największego komputera na świecie, jak i pracuje nad najmniejszymi procesorami. Tym największym komputerem jest IceCube, umieszczony pod lodem Antarktydy wykrywacz neutrin, którego całkowita objętość wynosi około 2,5 kilometra sześciennego, a który szczegółowo opisaliśmy w naszym artykule. Czujniki IceCube'a korzystają właśnie z procesorów ARM. Jeśli zaś chodzi o najmniejszy procesor, to Muller mówi, że zainspirował go udział w jednej z konferencji, na której usłyszał, że gdy rozmiar procesorów spadnie do 2x2 milimetry, będzie można je umieszczać w farbie i malować nią budynki. Procesory takie mogłyby monitorować stan konstrukcji. To nie jedyne zastosowanie miniaturowych układów scalonych. Kości takie mogłyby być umieszczane wewnątrz ludzkiego ciała. "Zacząłem myśleć o tym, co nasze dzieci będą uważały za normalne, a co obecnie nas przeraża" - stwierdził Muller. Pokazał też projekty układów, które zawierały w sobie czujnik ciśnienia, procesor, ogniwo słoneczne i antenę, a ich wielkość nie przekraczała 1 mm3. To jednocześnie górna granica objętości układów, które mogą być wszczepiane w gałkę oczną. Mogłyby one np. monitorować postępy jaskry i informować o nich lekarza.
  22. Jak wynika z dokumentów zdobytych przez turecki serwis Dnanimhaber, AMD twierdzi, że jego ośmiordzeniowy procesor Bulldozer będzie o 50% bardziej wydajny niż obecnie sprzedawane czterordzeniowe układy Core i7-950. Niestety, nie podano, jakich testów używało AMD do pomiarów. Niedawno pojawiły się też pogłoski, jakoby AMD miało zamiar powrócić do oznaczenia FX nadawanego najbardziej wydajnym procesorom. Wiadomo też, że partnerzy AMD otrzymali próbki układów o nazwie kodowej Zambezi (dla desktopów jest to Bulldozer) w grudniu ubiegłogo roku. W lutym mają pojawić się niemal gotowe układy, a ich wstępna produkcja dla desktopów rozpocznie się w kwietniu. Serwis X-bit laboratories donosi, że ośmiordzeniowe Zambezi składają się z czterech dwurdzeniowych modułów Bulldozer, z których każdy dysponuje 2 megabajtami współdzielonej pamięci podręcznej poziomu drugiego. Zambezi ma mieć również do dyspozycji 8 MB współdzielonej przestrzeni L3. Układ ma być taktowany zegarem o częstotliwości nawet 3,50 GHz lub wyższej. Z nieoficjalnych informacji wynika, że pierwsze Zambezi będą produktami ośmiordzeniowymi o TDP wynoszącym 95 i 125 watów. Pod koniec drugiego kwartału mają zadebiutować procesory wyposażone w sześć i cztery rdzenie. Wszystkie układy mają korzystać z technologii TurboCore 2.0 i dwukanałowego kontrolera DDR3 z zegarem do 1866 MHz. Będą one kompatybilne z podstawką AM3+. AMD nie komentuje powyższych doniesień.
  23. Intel oficjalnie ogłosił premierę drugiej generacji procesorów Core o nazwie kodowej Sandy Bridge. Najważniejszą zmianą, na którą zwraca uwagę Intel, jest dwukrotne zwiększenie, w porównaniu z GMA 4500, wydajności rdzenia graficznego. Poprawiono też pracę technologii Turbo Boost oraz Hyper-threading, dzięki czemu uzyskano zwiększenie wydajności mobilnego 4-rdzeniowego procesora aż o 60%. Niektórzy producenci notebooków już dostarczają komputery z czterordzeniowym procesorem i7. Modele dwurdzeniowe powinny pojawić się w lutym, a komputery wyposażone w układy ULV (ultra-low voltage) - w drugiej połowie bieżącego roku. W ramach rodziny Sandy Bridge Intel już zapowiedział jeden procesor Core i7 Extreme Edition, dwanaście Core i7, dwanaście Core i5, cztery Core i3 oraz cztery chipsety.
  24. Intel potwierdził pogłoski, że zakład D1X w Hillsboro będzie mógł pracować z plastrami krzemowymi o średnicy 450 milimetrów. Obecnie najnowocześniejsze fabryki pracują z 300-milimetrowymi plastrami. Intel zaledwie przed dwoma miesiącami przyznał, że ma zamiar wybudować w Hillsboro zakład badawczo-rozwojowy D1X oraz przystosować swoje inne fabryki do produkcji układów w technologii 22-nanometrów. Koncern wyda na te cele 6-8 miliardów dolarów. D1X ma rozpocząć prace w 2013 roku. Obecnie Intel potwierdził pogłoski, że zakład będzie przystosowany do pracy z 450-milimetrowymi plastrami i posłuży do badań nad rozwojem odpowiednich technik produkcyjnych. Decyzja Intela oznacza, że przemysł jest zdecydowany, by rozwijać odpowiednie technologie. Jeszcze przed dwoma laty wielu specjalistów twierdziło, że plastry 300-milimetrowe wystarczą na długie lata, a technologia 450-milimetrów, której rozwój wymagałby inwestycji liczonych w dziesiątkach miliardów dolarów. jest nieopłacalna. Mark Bohr, dyrektor ds. architektury procesorów i integracji w Intelu mówi: Czuję, że niektórzy producenci sprzętu są zainteresowani technologią 450 milimetrów. Dan Hutcheson, prezes firmy analitycznej VLSI Research napisał w swoim raporcie: Zaskoczyło mnie, że nie tylko konsorcjum SIT (Samsung, Intel, Toshiba) ją wspierają. Po raz pierwszy słyszę, by menedżerowie firm spoza tej trójki mówili 'to nie kwestia czy, ale kiedy'. Obecnie około 90 procent środków rozwojowych firm produkujących sprzęt dla przemysłu półprzewodnikowego jest w jakiś sposób zaangażowanych w technologię 450 milimetrów, chociaż w swoich oficjalnych stanowiskach firmy te twierdzą, że nie będą jej rozwijały. Jego zdaniem pierwsza fabryka korzystająca z 450-milimetrowych plastrów ruszy najwcześniej w roku 2018. Korzystanie z 450-milimetrowych plastrów przyniesie producentom znaczne oszczędności. Powierzchnia 450-milimetrowego plastra jest ponaddwukrotnie większa, niż wykorzystywanych obecnie plastrów 300-milimetrowych. To obniża cenę na pojedynczy układ, pozwala też zaoszczędzić wodę, energię oraz inne zasoby potrzebne do produkcji kości. Jednak najpierw konieczne jest zainwestowanie kolosalnych kwot w stworzenie odpowiednich urządzeń i linii produkcyjnych. Inżynierowie będą musieli poradzić sobie np. z banalnym pozornie problemem wyginania się plastrów pod własnym ciężarem i związaną z tym koniecznością przeprojektowania linii produkcyjnych.
  25. Intel pokazał procesor Atom, który może być konfigurowany przez użytkownika. Układ zawiera dedykowany blok FPGA składający się z 60 000 elementów logicznych. Konfiguracja odbywa się za pomocą narzędzi Quartus II firmy Altera. Atomy z FPGA stanowią nową rodzinę układów Intela o nazwie kodowej Stellarton. Będą one sprzedawane jako E600C. Obecnie seria składa się z układów E665CT i E665C taktowanych zegarem o częstotliwości 1,3 GHz oraz E645CT i E645C z jednogigahercowym zegarem. Te układy powinny trafić na rynek w ciągu najbliższych 2 miesięcy. Natomiast w pierwszym kwartale przyszłego roku ukażą się ich energooszczędne wersje E625CT i E625C z 600-megahercowym zegarem. W hurcie nowe kości będą sprzedawane w cenach od 61 do 106 USD. Intel ma nadzieję, że nowe układy trafią do systemów telefonii internetowej, urządzeń wbudowanych, urządzeń medycznych, maszyn przemysłowych czy urządzeń sieciowych.
×
×
  • Create New...