Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'Intel'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 305 results

  1. Intel nie tylko odnotował duży spadek zysków w ubiegłym kwartale, ale obawia się również nie najlepszego bieżącego kwartału. Firma ogłosiła, że zamknie dwie fabryki i trzy zakłady montażowo-testowe. Pracę straci 5 do 6 tysięcy osób. Zamknięte zostaną zakłady w Malezji i Filipinach. Ponadto wstrzymana zostanie produkcja starszych 200-milimetrowych plastrów krzemowych w Fab20 w Hillsboro (Oregon) oraz produkcja plastrów w D2 w Santa Clara. Fabryki zostaną zamknięte przed końcem bieżącego roku. Nie wszystkie decyzje koncernu należy wiązać z gorszymi wynikami finansowymi. Od pewnego już czasu analitycy przewidywali, że Intel zamknie starsze zakłady na Filipinach. Tym bardziej, że zainwestował w bardziej nowoczesne fabryki tego typu w Chinach i Wietnamie. Można było się też spodziewać stopniowego zatrzymywania taśm produkcyjnych tworzących starsze, 200-milimetrowe plastry krzemowe.
  2. Intel poinformował o olbrzymim spadku zysków netto w ostatnim kwartale ubiegłego roku. Koncern zarobił aż o 90% mniej, niż rok wcześniej. Cały kwartał zamknął zyskiem w wysokości 234 milionów dolarów, podczas gdy przez ostatnie trzy miesiące 2007 roku zarobił 2,27 miliarda USD. Na tak duży spadek miał wpływ m.in. odpis księgowy w wysokości około miliarda dolarów spowodowany 64-procentowym spadkiem firmy Clearwire Corp., w którą Intel zainwestował. Ponadto w związku ze spowolnieniem gospodarczym zmniejszył się popyt na układy scalone, przez co fabryki Intela nie wykorzystywały całej mocy, czyniąc produkcję mniej opłacalną. Marża brutto Intela wyniosła w ostatnim kwartale 53%. Koncern obawia się, że w bieżącym kwartale może ona spaść do mniej niż 40%. Przedstawiciele firmy nie chcieli podać przewidywanych rezultatów za styczeń-marzec 2009. Sytuacja gospodarcza jest na tyle niepewne, że trudno cokolwiek wyrokować. Mówią jednak, że spodziewają się obrotów w wysokości około 7 miliardów dolarów. Mimo spowolnienia firma nie zamierza obcinać wydatków na badania i rozwój. Zapowiada, że na fabryki i wyposażenie wyda mniej więcej tyle samo, co w roku 2008, czyli 5,2 miliarda dolarów. Na prace badawcze zarezerwowano około 5,4 miliarda. Intel to pierwszy technologiczny gigant, który zdradził swoje ubiegłoroczne wyniki. W niedługim czasie dowiemy się, jak sobie radziły IBM, Microsoft i Google.
  3. IBM poinformował, że już po raz 16. z rzędu uzyskał w minionym roku najwięcej patentów na rynku. W 2008 roku Błękitny Gigant otrzymał 4186 patentów. Na drugim miejscu uplasował się Samsung (3515 patentów), następny był Canon (2114), później Microsoft (2030) oraz Intel (1776). IBM oświadczył, że wielu z przyznanych patentów nie będzie chronił, a udostępni je publicznie. Liczba udostępnianych publicznie patentów ma zostać zwiększona o 50%. Warto tutaj wspomnieć, że w ubiegłym tygodniu Międzynarodowy Instytut Inżynierów Elektryków i Elektroników (IEEE) po raz pierwszy w historii ocenił portfolio patentów firm z branży technologicznej. Zdaniem IEEE najlepsze portfolio ma Microsoft. Pod uwagę brano bowiem nie tylko liczbę patentów, ale również zróżnicowanie opatentowanych technologii czy szybkość powiększania się portfolio. Microsoft, który został sklasyfikowany w kategorii Oprogramowanie komputerowe, uzyskał w tym badaniu 3505 punktów. Drugie miejsce zajął Intel z 2796 punktami (kategoria Przemysł półprzewodnikowy), a trzecie IBM, który uzyskał 2747 punktów (kategoria Systemy komputerowe).
  4. Anwar Gholoum, jeden z inżynierów zatrudnionych w intelowskim Laboratorium Technologii Mikroprocesorowych, opublikował na oficjalnym blogu Intela wpis, w którym zwraca programistom uwagę na poważne zmiany, jakie zajdą w najbliższych latach. Gholoum wspomina o rozmowach, jakie toczy z innymi inżynierami. Z jednej strony od lat mówi się o tym, że osoby rozwijające oprogramowanie starają się jak najmniejszym kosztem przystosować je do pracy na dwu- czy czterordzeniowych procesorach. Z drugiej zaś, inżynierowie już dyskutują o procesorach przyszłości, zawierających dziesiątki, setki, a nawet tysiące rdzeni. W przypadku takich procesorów taktyka "oszczędnego" programowania się nie sprawdzi. Obecnie programiści w dość prosty sposób przystosowują np. gry napisane dla procesorów jednordzeniowych, do współpracy z czterordzeniowymi układami. Wystarczy, że "rozbiją" pojedynczy wątek na kilka oddzielnych: jeden odpowiedzialny za przetwarzanie muzyki, drugi za grafikę, trzeci za sztuczną inteligencję. Taka taktyka zapewnia spore oszczędności, gdyż "rozbite" wątki korzystają z pierwotnego kodu pojedynczego wątku, więc ich przygotowanie nie wymaga dużo pracy. Zmiany takie powodują pewne zwiększenie wydajności, gdyż każdy z wątków może być przetwarzany przez osobny rdzeń. Jeśli zatem rozdzielimy oryginalny wątek na 4, to będą one korzystały z 4 i tylko z 4 rdzeni. Gholoum uważa, że programiści powinni przygotować się do całkowitej zmiany podejścia. Tak naprawdę procesory przyszłości będą wymagały przepisania niemal całego kodu tak, by każdy z wątków mógł skorzystać z dowolnej dostępnej liczby rdzeni. Dopiero wtedy w pełni wykorzystamy wydajność wielordzeniowych procesorów. Już w tej chwili istnieją techniki, które działają właśnie w ten sposób. Bardzo dobrze skaluje się ray tracing, czyli śledzenia światła w wirtualnych scenach. Wykorzystywane w tym przypadku algorytmy są tak skonstruowane, że dołożenie kolejnych rdzeni powoduje zwiększenie prędkości przetwarzania, gdyż potrafią one skorzystać z dodatkowych mocy obliczeniowych. Większość aplikacji jest jednak napisanych tak, że ich skalowanie będzie wymagało olbrzymiego nakładu pracy. Tym bardziej, że zarówno współczesne narzędzia developerskie i testowe oraz języki programowania są mocno zorientowane na przetwarzanie jednowątkowe. Gholoum zauważa, że programiści specjalizujący się w rynku HPC (high-performance computing) od lat wiedzą o problemach związanych z przetwarzaniem wielowątkowym. Osoby programujące na rynek konsumencki jak dotąd nie przejmowały się kłopotami, z jakimi musieli zmagać się ich koledzy oprogramowaujący potężne klastry. W najbliższych latach może się to zmienić.
  5. Opublikowano kolejną, 32. edycję listy TOP500, na której wymieniono najpotężniejsze superkomputery na świecie. Na pierwszym miejscu uplasował się RoadRunner, pierwszy superkomputer, który przekroczył barierę petaflopsa czyli biliarda (1015) operacji zmiennoprzecinkowych na sekundę. RoadRunner (BladeCenter QS22/LS21 Cluster) korzysta ze 129600 rdzeni procesorów PowerXCell 8i oraz Opteron DC, a jego wydajność to 1,105 PFlops. Minimalnie wyprzedził on maszynę Jaguar (Cray XT5) ze 150152 rdzeniami procesora QC, którego wydajność to 1,059 PFlops. Kolejny na liście superkomputer Pleiades jest już wyraźnie wolniejszy, gdyż wykonuje 0,487 PFlops. Superkomputerowym mocarstwem pozostają Stany Zjednoczone. Aż 9 z 10 najpotężniejszych maszyn znajduje się na terenie tego kraju, z czego 7 jest własnością Departamentu Energii. Na 10. pozycji uplasował się pierwszy z nieamerykańskich superkomputerów. Jest to maszyna Dawning 5000A z Szanghaju. To jednocześnie najpotężnieszy superkomputer korzystający z systemu Windows. W USA znajduje się 291 superkomputerów z TOP500. Przed sześcioma miesiącami było ich 257. Na drugim miejscu znajdziemy Europę ze 151 systemami (to o 33 mniej niż pół roku temu), a na trzecim Azję (47 superkomputerów). Na obecnej liście znajdziemy aż 6 superkomputerów z Polski. Najpotężniejszy z nich to Galera, który uplasował się na 68. pozycji. Kolejne miejsca zajmowane przez polskie maszyny to 221., 311., 337., 373. i 495. Z obecności tylu polskich superkomputerów wypada cieszyć się tym bardziej, że coraz trudniej jest dostać się na listę. Jeszcze w pierwszej połowie roku na liście wymieniana była maszyna o wydajności 9 TFlops. Obecne minimum to 12,64 TFlops. System, który teraz uplasował się na 500. pozycji, w poprzedniej edycji listy zajmował 267. miejsce. Warto też zauważyć, że w ciągu roku wydajność najpotężniejszych systemów wzrosła ponaddwukrotnie. Obecnie łączna wydajność 500 supermaszyn to 16,95 PFlops. Pół roku temu było to 11,7 PFlops, a przed rokiem - 6,97 PFlops. To najlepszy dowód, jak bardzo rośnie zapotrzebowanie na moc obliczeniową. W 379 superkomputerach (75,8%) wykorzystano procesory Intela. Przed sześcioma miesiącami takich maszyn było o cztery mniej. Do budowy 60 maszyn użyto procesorów Power produkcji IBM-a, a 59 systemów korzysta z Opteronów AMD. Najbardziej popularnymi procesorami są układy czterordzeniowe, obecne w 336 systemach. W 153 superkomputerach spotkamy kości dwurdzeniowe, a w 4 - jednordzeniowe. Siedem supermaszyn korzysta z dziewięciordzeniowych procesorów Cell. Największym producentem superkomputerów jest obecnie HP. Firma ta stworzyła 209 maszyn, a jej główny konkurent - IBM - jest autorem 188 maszyn. Jeszcze pół roku temu na TOP500 znajdowało się 210 komputerów IBM-a i 183 maszyny HP. Błękitny Gigant wciąż pozostaje liderem pod względem zainstalowanej mocy obliczeniowej. Dominującym systemem operacyjnym są edycje Linuksa zainstalowane na 439 maszynach. Trzydzieści jeden superkomputerów wykorzystuje różne OS-y, na 23 maszynach znajdziemy Unix, a na 5 - Windows. Z ciekawostek warto też odnotować debiut Nvidii na liście TOP500. Maszyna Tsubame z Tokijskiego Instytutu Technologicznego, która uplasowała się na 29. pozycji korzysta m.in. z układów Nvidia GT200.
  6. Intel poinformował o zakończeniu opracowywania technologii 32 nanometrów. W czwartym kwartale 2009 roku z linii produkcyjnych mają zjechać pierwsze kości wykonane w tej technice. Przedstawiciele koncernu zapowiedzieli, że w przyszłym tygodniu podczas konferencji International Electron Devices Meeting zaprezentują szczegóły przygotowanych przez siebie rozwiązań. Będzie można zapoznać się z drugą generacją materiałów o wysokiej stałej dielektrycznej połączonych z metalową bramką czy też z techniką 193-nanometrowej litografii immersyjnej. To już czwarty rok z rzędu, gdy Intelowi udało się dotrzymać wyznaczonych terminów wdrażania kolejnego procesu produkcyjnego. Podczas wspomnianej konferencji odbędzie się również spotkanie dotyczące technologii 22 nanometrów.
  7. Intel rozpoczął sprzedaż procesorów z rodziny Core i7. To oficjalna nazwa architektury znanej dotychczas pod kodową nazwą Nehalem. Układy wykonane w technologii 45 nanometrów jako pierwsi na świecie mogli kupić Japończycy. Przed sklepami w tokijskiej dzielnicy Akihabara zgromadziły się setki entuzjastów komputerów. Nowe procesory nie są tanie. Układ Core i7 965 Extreme Edition taktowany zegarem o częstotliwości 3,2 GHz wyceniono na 999 dolarów. Za Core i7 940 (2,93 GHz) trzeba zapłacić 562 USD, a za Core i7 920 (2,66 GHz) - 284 USD. Intel chce przekonać klientów do nowej architektury m.in. możliwością zoptymalizowania pracy układu w zależności od potrzeb. W procesorach Core i7 można dopasować 20 różnych parametrów pracy układu. Ten tzw. Turbo Mode to jedno z ciekawszych rozwiązań zastosowanych w nowych CPU. Znane z notebooków rozwiązanie trafi tym razem do desktopów. Turbo Mode to nic innego jak dynamiczne zasilanie poborem energii przez układ. Każda jego część jest zasilana osobno. W zależności od potrzeb może więc pobierać mniej lub więcej energii. Może też przejść w stan uśpienia gdy nie jest potrzebna. Umieszczona w procesorze sieć czujników będzie decydowała np. o wyłączeniu niepotrzebnych rdzeni procesora w sytuacji, gdy uruchomiona aplikacja używa tylko jednego rdzenia, ale wykorzystuje go bardzo intensywnie. Wówczas do tego rdzenia zostanie dostarczone wyższe napięcie i zwiększy się taktowanie jego zegara, a pozostałe rdzenie zostaną "uśpione". Dzięki takiemu rozwiązaniu nasza aplikacja będzie działała bardziej wydajnie, a ogólny bilans poboru mocy i wydzielania ciepła przez procesor pozostanie niezmieniony lub się zmniejszy. Rozwiązanie takie uchroni nas też przed przegrzewaniem się procesora i np. zawieszaniem komputera, gdyż w słabo chłodzonych maszynach kości nie będą osiągały pełnej mocy, by zapewnić ich stabilną pracę. Główną cechą architektury Core i7 jest modułowa budowa procesora. Dzięki niej producent może łatwo dodawać nowe rdzenie i oferować kości zarówno dwu-, trzy- jak i ośmiordzeniowe. Co ważne, procesory będą monolityczne, czyli od samego początku będą "prawdziwymi" wielordzeniowcami. To odstępstwo od dotychczasowej polityki Intela, którego pierwszymi wielordzeniowymi układami były po prostu procesory zamknięte w jednej obudowie, a dopiero kolejne wersje to rdzenie umieszczone na jednym kawałku krzemu. W nowych procesorach umieszczono również kontroler pamięci, a ich architektura umożliwia wbudowywanie weń licznych poziomów pamięci cache. Teoretycznie może się w nich znaleźć nawet cache L4 (czwartego poziomu). Ponadto Core i7 współpracuje z układami DDR3 w trybach jedno-, dwu-, trzy- i czterokanałowym. Podstawowym procesorem z rodziny Core i7 będzie układ czterordzeniowy. Intel zapowiada również kości z ośmioma rdzeniami. Jako, że każdy z rdzeni może przetwarzać dwa wątki, układy obsłużą do 16 wątków jednocześnie. Przypomina to więc obecną w procesorach Pentium technologię Hyper-Threading. Tym razem ma jednak być ona bardziej wydajna i elastyczna. Intel zapowiedział bowiem, że użytkownik będzie mógł z poziomu BIOS-u wyłączyć obsługę wielowątkowości. Inną istotną zmianą jest zastosowanie magistrali QPI (Quick Path Interconnect) w miejsce FSB. Dzięki temu dwukrotnie przyspieszono wewnętrzną komunikację pomiędzy CPU w maszynach wieloprocesorowych. Na razie wszystko wskazuje na to, że Intel nastawił się na bardziej wymagających odbiorców. Core i7 powinien sprawdzić się w zastosowaniach serwerowych oraz tam, gdzie wymagane są duże moce obliczeniowe i wielowątkowość. Wstępne testy na domowych desktopach napawają umiarkowanym optymizmem. W typowo domowych zastosowaniach procesory sprawują się tylko nieznacznie lepiej dotychczas dostępne na rynku CPU. Przyrost wydajności jest niewielki, a zastanawiając się nad kupnem Core i7 powinniśmy wziąć pod uwagę wysoką cenę nowości oraz fakt, że zmieniając procesor musimy kupić przystosowaną do współpracy z nim płytę główną z podstawką LGA 1366.
  8. Intel i Asus chcą przy pomocy internautów skonstruować "idealny komputer". W tym celu uruchomiono witrynę WePC.com, na której można umieszczać swoje pomysły dotyczącego tego, jak taki komputer powinien wyglądać. Obie firmy chcą, by użytkownicy "marzyli o niemożliwym", żeby ich wyobraźni nic nie ograniczało. Zapewniają jednocześnie, że wysiłek osób odwiedzających WePC.com nie pójdzie na marne. Wymarzony przez internautów model komputera na pewno powstanie. Hasło umieszczone na witrynie brzmi: "You dream it. ASUS builds it. Intel inside it", co można przetłumaczyć, jako "Ty projektujesz, ASUS buduje, Intel dostarcza podzespołów". Społeczność, biorąca udział w dyskusji na stronie WePC.com zostanie podzielona na trzy grupy tematyczne, odzwierciedlające podział na najbardziej obecnie popularne rodzaje komputerów osobistych: netbooki, notebooki i notebooki do gier.
  9. Jak donosi EE Times, fabryki układów scalonych korzystające z 450-milimetrowych plastrów krzemowych, rzeczywiście mogą powstać, jednak nie tak szybko, jakby sobie niektórzy życzyli. Najwięksi producenci chipów, Intel, TSMC i Samsung, obiecują, że tego typu zakłady powstaną około roku 2012. Ich zapewnieniom nie wierzy wielu ekspertów, którzy uważają, że stworzenie odpowiednich urządzeń, technologii i wybudowanie linii produkcyjnych jest zbyt kosztowne. Analityk Dean Freeman z Gartnera uważa, że tego typu zakłady rzeczywiście powstaną, ale rozpoczną produkcję nie wcześniej niż w 2017 roku. Koszt wdrożenia nowej technologii jest szacowany na 20-40 miliardów dolarów. Zdaniem Freemana kalendarium wdrażania technologii będzie wyglądało następująco: - w roku 2009 producenci układów scalonych ustalą zasady współpracy nad nową technologią; - w 2010 pojawią się prototypowe plastry krzemowe o średnicy 450 mm; - w latach 2012-2013 będą produkowane prototypowe urządzenia; - pomiędzy rokiem 2014 a 2016 będą uruchamiane pilotażowe linie produkcyjne; - w latach 2017-2019 ruszą pierwsze linie korzystające z 450-milimetrowych plastrów, z których zjadą układy wykonane w technologii 8 lub 5 nanometrów. Powierzchnia 450-milimetrowego plastra jest ponaddwukrotnie większa, niż wykorzystywanych obecnie plastrów 300-milimetrowych. To obniża cenę na pojedynczy układ, pozwala też zaoszczędzić wodę, energię oraz inne zasoby potrzebne do produkcji kości.
  10. Ilość energii zużywanej przez procesor to jeden z ważniejszych wskaźników, którymi kierują się klienci - szczególnie duże firmy - podczas podejmowania decyzji o zakupie sprzętu komputerowego. Nic zatem dziwnego, że Intel postanowił wyliczyć, jakie oszczędności przyniosły klientom firmy procesory z rodziny Core. Koncern szacuje, że już sprzedane układy zużyły o 20 terawatów mniej energii niż kości poprzedniej generacji. Średnia cena energii elektrycznej w USA wynosi 10 centów za kilowatogodzinę. Wynika z tego, że oszczędności sięgnęły 2 miliardów dolarów.
  11. Rzecznik prasowy Intela, Chuck Mulloy, oznajmił, że półprzewodnikowy gigant ma "poważne wątpliwości" dotyczące ujawnionych niedawno planów AMD. Mowa tutaj o wydzieleniu z firmy fabryk i utworzenie z nich przedsiębiorstwa o nazwie Foundry Company. Mulloy przypomniał, że Intel i AMD podpisały umowę o wymianie licencji, na podstawie której AMD płaci za prawo do korzystania z własności intelektualnej konkurencyjnej firmy. Intel ma poważne wątpliwości co do transakcji i jej wpływu na zapisy umowy licencyjnej. Będziemy zdecydowanie bronili praw intelektualnych Intela - mówi Mulloy. Niestety, wygląda na to, że oficjalnie nie dowiemy się, czego dotyczą wątpliwości Intela. Firma ta zwróciła się do AMD z prośbą o zgodę na upublicznienie warunków umowy tak, by wszelkie rozmowy mogły toczyć się przy drzwiach otwartych. AMD nie zgodziło się na to.
  12. Z nieoficjalnych doniesień wynika, że TSMC, największy na świecie producent układów scalonych, rozpocznie w przyszłym roku produkcję 40-nanometrowych procesorów na zlecenie AMD. Jak dowiedzieli się dziennikarze serwisu Taiwan Economic News, pierwsze CPU wykonane w technologii 40 nm wyjadą z TSMC w drugim kwartale przyszłego roku. Dotychczas spodziewano się, że AMD pójdzie w ślady Intela i zaprezentuje procesory wykonane w procesie 45 nanometrów. Jak widzimy, najprawdopodobniej będzie inaczej. Analitycy rynkowi od pewnego czasu spodziewali się, że TSMC otrzyma większe zamówienia od AMD, gdyż główny konkurent Intela ma zamiar coraz bardziej polegać na zewnętrznych producentach procesorów. Tymczasem Intel nie spoczywa na laurach i zapowiada, że w przyszłym roku rozpocznie sprzedaż procesorów wykonanych w technologii 32 nanometrów.
  13. Jak pamiętamy, już Tesla pracował nad bezprzewodowym przesyłaniem energii elektrycznej, a ostatnio Intel zademonstrował urządzenia, które to umożliwiają. Tym razem Discovery Channel sfinansował eksperyment, w wyniku którego energia została wysłana na odległość 148 kilometrów. Autorem eksperymentu był John C. Mankins, który przez 25 lat pracował dla NASA i był odpowiedzialny za program wykorzystania energii słonecznej. Mankins wysłał 18 watów pomiędzy dwiema wyspami Hawajów. Cały eksperyment kosztował milion dolarów. W jego ramach powstało 9 paneli słonecznych i systemy, z których każdy mógł przesłać 20 watów. Jednak, aby otrzymać zgodę Federalnej Komisji Lotnictwa, moc nadajników musiała zostać dziesięciokrotnie zmniejszona. Odbiorniki zaś były tak małe, że były w stanie zebrać jedynie 1/1000 część wysłanej mocy. Celem eksperymentu było wykazanie, że energię elektryczną można wysyłać przez atmosferę na duże odległości. Mankins chce, by w przyszłości energia Słońca była pozyskiwana przez liczne krążące na orbicie satelity, które wysyłałyby ją do olbrzymiej stacji odbiorczej na Ziemi.
  14. Podczas ostatniego IDF-u Intel pokazał technologię przesyłania prądu na odległość. Justin Rattner, prezes ds. technologicznych, zademonstrował zestaw składający się z odbiornika i nadajnika. Urządzenia nie były połączone za pomocą żadnego kabla. gdy znajdowały się w odległości 60 centymetrów od siebie, w odbiorniku zapaliła się żarówka zasilana prądem z nadajnika. Rattner mówi, że już w tej chwili stworzone przez Intela prototypy są w stanie przesyłać prąd o dość wysokim natężeniu na odległość około 1 metra. Ich wydajność wynosi 75%. Jak wyjaśnił badacz Intela, Alanson Sample, w przeciwieństwie do np. Wi-Fi, nadajniki przesyłające prąd nie działają bez przerwy. Rozpoczynają transmisję tylko wówczas, gdy wykryją w swoim zasięgu odbiornik. Możliwe jest też przesłanie prądu, gdy pomiędzy nadajnikiem a odbiornikiem znajduje się przeszkoda. Co bardzo ważne, gdyby pomiędzy nimi znalazł się człowiek, nie będzie mu groziło żadne niebezpieczeństwo. Ponadto, Rattner informuje, że nadajnik nie potrzebuje specjalnej anteny. Dzięki temu można go np. wbudować w biurko. Wtedy wystarczy tylko położyć na nim laptopa, odtwarzacz MP3 czy jakiekolwiek inne urządzenie i będzie się ono ładowało. Intel nie przekazał żadnych informacji dotyczących rynkowego debiutu zaprezentowanej technologii. Można jednak przypuszczać, że miną lata zanim trafi ona do naszych domów.
  15. Już wkrótce, bo w latach 2011-2012 na rynek zaczną trafiać procesory wykonane w technologii 22 nanometrów. Z planów Intela wynika, że w roku 2011 zadebiutuje układ o nazwie kodowej "Ivy Bridge". Będzie to 22-nanometrowe wcielenie mikroarchitektury "Sandy Bridge" (32 nm), która pojawi się w roku 2010. Z kolei w roku 2012, prawdopodobnie w jego drugiej połowie, będziemy mogli kupić 22-nanometrowe kości "Haswell" - pierwsze w historii układy wykonane w mikroarchitekturze zaprojektowanej specjalnie dla procesu technologicznego 22 nm. Najprawdopodobniej "Haswell" zadebiutuje jako ośmiordzeniowy procesor. Zestaw wykonywanych przezeń instrukcji zostanie powiększony przez co najmniej jedną. Już teraz wiadomo, że obsłuży on FMA (Fused Multiply Add), która pozwoli na dodawanie i mnożenie trzech wartości w jednej operacji.
  16. Intel kupił londyńskie przedsiębiorstwo Opened Hand, które specjalizuje się w tworzeniu mobilnych usług i oprogramowania opartych na systemie Linux. Nowy nabytek Intela będzie brał udział w pracach społeczności Moblin Software Platform, rozwijającej oprogramowanie dla procesora Atom. Powstające tam software ma być używane w energooszczędnych notebookach i urządzeniach MID (mobile internet devices). Dotychczasowe projekty Opened Hand (m.in. biblioteka Clutter czy Matchbox) nadal będą prowadzone. Fakt, iż firma będzie mogła kontynuować prace nad nimi jest bardzo ważny dla środowiska linuksowego, gdyż Opened Hand zatrudnia wielu programistów kluczowych dla projektu Gnome. Wśród klientów Opened Hand znajdują się m.in. Nokia Internet Tablets, One Laptop per Child, Openmoko i Vernier.
  17. Justin Rattner, wiceprezes Intela ds. technologicznych, stwierdził, że w ciągu najbliższych 40 lat powstaną maszyny, które będą bardziej inteligentne od ludzi. W bieżącym roku Intel obchodzi 40-lecie istnienie i,jak stwierdził Rattner, w ciągu kolejnych 40 lat inteligencja maszyn produkowanych przez Intela przewyższy ludzką inteligencję. Postęp w ciągu następnych 100 lat będzie dzięki technologii większy, niż postęp, który dokonał się w ciągu ostatnich 20 000 lat ludzkiej historii. Oczywiście dokonanie tego postępu nie będzie łatwe. Co prawda obecnie wykorzystywana technologia CMOS wciąż ma sporo do zaoferowania, ale, jak zauważa doktor Mike Garner z Intela, potrzebujemy nowych materiałów by usprawnić działanie tranzystorów oraz nowych technologii, takich jak tranzystory trójbramkowe. Zapowiedzi Intela są o tyle prawdopodobne, że, jak przewiduje wielu specjalistów, w ciągu 20 najbliższych lat powinny powstać komputery kwantowe.
  18. Intel zdradził szczegóły na temat kości Larrabee, która ma konkurować z procesorami graficznymi ATI i Nvidii. Przede wszystkim trzeba podkreślić, że Larrabee będzie samodzielnym układem scalonym opartym na architekturze Pentium. Nie jest to więc rdzeń graficzny wbudowany w chipset. Intel produkował już niegdyś samodzielne układy graficzne, jednak wycofał się z tego rynku. Koncern jest natomiast największym producentem wbudowanych rdzeni graficznych. Larrabee nie będzie jednak typowym GPU. Ma być to coś pośredniego pomiędzy procesorem (CPU) a procesorem graficznym (GPU). Intelowi chodzi o wyprodukowanie łatwo programowalnego układu o dużej wydajności. Kość będzie korzystała z rdzeni x86, których liczba, w zależności od segmentu rynku, na jaki będzie skierowana, ma się wahać od 8 do 48. Wspomagane będą one przez jednostkę przetwarzania wektorowego. Każdy z rdzeni zostanie wyposażony w 256 kilobajtów pamięci podręcznej drugiego poziomu. Larrabee ma obsługiwać zarówno DirectX, jak i apple'owskie Open CL. Kość będzie radziła sobie z różnymi typami obliczeń równoległych, a jej system kolejkowania zadań będzie zależał od oprogramowania, a nie od wbudowanych obwodów logicznych. To da programistom większą swobodę pracy, gdyż będą mogli oni dostosować zasoby sprzętowe do wymagań każdej aplikacji. Każdy z rdzeni Larrabee będzie w stanie wykonać cztery wątki, z osobnym rejestrem dla każdego z nich. Kość wykorzystuje też 1024-bitową, dwukierunkową sieć pierścieniową. Analitycy z Jon Peddie Research uważają, że rynek nie będzie robił różnicy pomiędzy Larrabee i tradycyjnym GPU, więc kość będzie rozprowadzana jako GPU. Trudno jednak ocenić szanse Intel na sukces. Z jednej strony aż 98% rynku procesorów graficznych należy do ATI i Nvidii. Należy jednak pamiętać, że Intel jest potężną firmą, z olbrzymim zapleczem technicznym i marketingowym, może więc stać się poważnym graczem.
  19. W drugim kwartale bieżącego roku Intel zanotował znaczy wzrost dochodów, pomimo obniżenia średniej ceny sprzedawanych przez siebie układów scalonych. Zysk netto firmy zwiększył się o 25% i wyniósł 1,6 miliarda dolarów, co dało 28 centów zysku na akcję. W drugim kwartale roku 2007 Intel zarobił 1,28 miliarda USD netto, czyli 22 centy na akcję. Ostatnie wyniki Intela były lepsze, niż przewidywali analitycy, którzy prognozowali, że pomiędzy początkiem kwietnia a końcem czerwca firma zarobi 1,49 miliarda USD. Prezes koncern, Paul Otellini, mówi, że duży popyt na tanie notebooki spowodował, iż spadła średnia cena układu scalonego, a wysokie zyski odnotowano dzięki dużemu popytowi. Otellini jest optymistą - jego zdaniem wysoki popyt utrzyma się też w drugiej połowie roku. Intel notuje wzrost popytu na całym świecie. Jedynie w Chinach został on zahamowany przez trzęsienie ziemi. Jednak zbliżające się Igrzyska Olimpijskie oraz prace nad zniszczoną przez trzęsienie infrastrukturą ponownie zwiększyły chiński popyt. Pod koniec drugiego kwartału bieżącego roku Intel zatrudniał mniej niż 82 000 pracowników. W ostatnim czasie z firmy odeszło 2700 osób, z czego wiele przeszło do przedsiębiorstwa Numonyx, producenta pamięci flash założonego przez Intela i STMicroelectronics.
  20. Intel zaprezentował nową platformę dla notebooków - Centrino 2. W jej skład wchodzi procesor 45-nanometrowy procesor Core 2 Duo (Penryn) oraz chipset obsługujący standard łączności bezprzewodowej 802.11n i wyposażony w zintegrowaną kość graficzną. Dwurdzeniowe procesory taktowane są zegarami o częstotliwościach 2,26 GHz do 3,06 GHz, wyposażono je w 6 megabajtów pamięci cache drugiego poziomu i współpracują z 1066-megahercową magistralą systemową. Intel obiecuje, że jeszcze w bieżącym roku Centrino 2 wzbogaci się o czterordzeniowy procesor. Koncern twierdzi, że nowa platforma jest o 23% bardziej wydajna, zużywa 23% mniej energii, a moduł graficzny pracuje 70% szybciej, niż jej poprzedniczka. Ponadto platforma potrafi automatycznie przełączać się pomiędzy zintegrowaną a zewnętrzną kartą graficzną, co przynosi kolejne oszczędności energii. Centrino 2 obsługuje technologię vPro, która daje administratorom zdalny dostęp do laptopa, nawet gdy ten jest w trybie uśpienia. Niemal wszyscy producenci laptopów zapowiadają, że przygotują maszyny z Centrino 2.
  21. Specjalista ds. zabezpieczeń, Kris Kaspersky, zapowiedział, że zademonstruje, w jaki sposób można zaatakować mikroprocesory Intela. Kaspersky twierdzi, że znalazł w nich błąd, który pozwala na przeprowadzenie zdalnego ataku za pomocą JavaScriptu lub pakietów TCP/IP. Na atak podatne są ponoć wszystkie komputery, niezależnie od zainstalowanego systemu operacyjnego. Demonstracja ma być przeprowadzona podczas październikowej konferencji Hack In The Box. Atakowane będą maszyny z w pełni załatanymi systemami Windows XP, Windows Vista, Windows Server 2003, Windows Server 2008, Linux, BSD i innymi. Niewykluczone, że próbie zostaną poddane też komputery Apple'a. Pokażę działający kod i udostępnię go - mówi Kaspersky. Dodaje, że błędy w układach scalonych stają się coraz większym problemem. Niektóre z nich pozwalają na doprowadzenie do awarii systemu, inne dają możliwość przejęcia pełnej kontroli nad jądrem OS-u. Jeszcze inne pozwalają na zaatakowanie Windows Visty poprzez wyłączenie mechanizmów ochronnych - stwierdza Kaspersky. Specjalista mówi, że większość z błędów w mikroprocesorach można naprawić. Intel co jakiś czas dostarcza producentom BIOS-u odpowiednie oprogramowanie łatające luki w procesorach. Jednak niektórzy producenci BIOS-u nie stosują tego oprogramowania, a części z luk po prostu nie można w ten sposób poprawić.
  22. Inżynierowie Intela stworzyli najbardziej wydajny układ scalony przeznaczony do zastosowań telekomunikacyjnych. Kość jest w stanie kodować w świetle dane z prędkością 200 gigabitów na sekundę. Co ciekawe, układ wykonano z krzemu. Obecnie najbardziej wydajne układy tego typu pracują z prędkością 100 gigabitów na sekundę i nie korzystają z krzemu. Mają jednak tę wadę, że nie można ich wydajności zwiększać tak tanim kosztem, jak w przypadku układów krzemowych. Z drugiej jednak strony trzeba pamiętać, że przyszłością fotoniki wydają się takie materiały jak arsenek galu czy fosforek indu. Materiały te mają lepsze właściwości optyczne, a zatem bardziej nadają się do pracy z wykorzystywanym w telekomunikacji światłem. Nowa kość Intela rozbija strumień światła na osiem osobnych kanałów. Każdy z nich działa jak modulator, a więc koduje dane w świetle. Po ich zakodowaniu ponownie tworzony jest pojedynczy strumień. Mario Paniccia, dyrektor intelowskiego laboratorium zajmującego się krzemem i fotoniką, poinformował, że podczas testów każdy modulator pracował z niemal identyczną prędkością, która wynosiła 25 Gb/s. Dodał przy tym, że kanały testowano osobno, ale wkrótce zostaną opublikowane wyniki testów całości. Jednocześnie pracujące kanały mogą nawzajem się zakłócać, powodując spadek wydajności całego układu, jednak już wstępne wyniki pokazują, że, dzięki odpowiedniej architekturze, zakłócenia będą minimalne. Prowadzone przez Paniccię laboratorium to jeden z najważniejszych ośrodków pracujących nad krzemową fotoniką. Przed czterema laty powstał tam pierwszy krzemowy modulator działający z prędkością 1 Gb/s. Rok później stworzono krzemowy laser, a w 2006 roku - laser łączący fosforek indu z krzemem, co dowiodło, że lasery do zastosowań telekomunikacyjnych można budować z krzemu. Przed rokiem zaś informowaliśmy, że Paniccia i jego zespół stworzyli modulator, którego prędkość wynosiła 40 gigabitów na sekundę.
  23. Pojawienie się intelowskiego procesora Atom może pobudzić rozwój rynku miniaturowych notebooków. Redaktorzy serwisu X-bit laboratories dotarli do materiałów, z których wynika, że AMD szykuje konkurencyjny produkt. Przygotowywany przez AMD procesor przypomina układ Geode NX, który korzystał z rdzenia Athlona. O ile jednak Geode NX to układ generacji K7, to nowy procesor prawdopodobnie będzie korzystał z 64-bitowego rdzenia generacji K8. Nowa kość będzie jednordzeniowym CPU wyposażonym w dwa 64-kilobatowe bloki pamięci podręcznej poziomu pierwszego, 256 kB L2 oraz kontroler pamięci współpracujący z jedną kością DDR2-400 SDRAM DIMM lub SO-DIMM. Procesor wykorzysta też 800-megahercową magistralę HyperTransport, a sam będzie taktowany zegarem o częstotliwości 1 gigaherca. Pobór mocy mierzony wydzielaniem ciepła (TDP) będzie wynosił 8 watów. Wymiary układu to 27x27 milimetrów. AMD nie jest obecnie w stanie konkurować z intelowskimi procesorami na wyższym segmencie rynku notebooków. Firma próbuje więc zaistnieć na niższym segmencie oraz na rynku mobilnych urządzeń internetowych (MID). Można jednak zauważyć, że proponowany przez AMD procesor ma poważną wadę w porównaniu z Atomem. Jego TDP wynosi aż 8W, podczas gdy TDP Atoma to 2,5 wata. Nawet jeśli dodamy do tego współpracujący z nim chipset i945GSE to otrzymamy w sumie 6,5 wata. Warto tu wspomnieć, że chipset ten zawiera rdzeń graficzny, którego brak proponowanemu przez AMD procesorowi.
  24. W 2010 roku w chińskim Dalian rozpocznie pracę intelowska Fab 68. Nie byłoby w tym nic niezwykłego, gdyby nie fakt, że podczas budowy fabryki będą przestrzegane zasady feng shui. Jak czytamy w udostępnionych przez Intela dokumentach: Skonsultowaliśmy się z chińskimi mistrzami feng shui, by zachować harmonię pomiędzy wiatrem, słońcem a wnętrzem Fab 68. Dzięki temu budynek wykorzystuje energię słoneczną do optymalnego ogrzewania i chłodzenia, a jego konstrukcja jest zgodna z proponowanym przez feng shui sposobem przepływu energii. Fab 68 będzie kosztowała Intela 2,5 miliarda dolarów. Zakład ma być wzorem ekologicznej fabryki. Zostanie wyposażony w supernowoczesny system oczyszczania wody, dzięki któremu do ponownego obiegu w fabryce trafi aż 60% pierwotnie użytej wody. Intel wyposaży fabrykę w nowoczesne filtry, do jej budowy użyje nowoczesnych urządzeń, dzięki czemu ogólna emisja zanieczyszczeń z zakładu będzie znacznie niższa, niż z podobnych fabryk. Pomyślano o wszystkim. Nawet o systemie przeciwpożarowym, który korzysta z materiału o nazwie Halotron. Jak informuje Intel, Halotron przyczynia się do globalnego ocieplenia aż 127 razy mniej, niż tradycyjne systemy przeciwpożarowe. Mamy nadzieję, że Fab 68 będzie supernowoczesną fabryką i wzorcem budownictwa przemysłowego zgodnego z wymaganiami ochrony środowiska - czytamy w dokumentach Intela
  25. Naukowcy z Uniwersytetu Waszyngtońskiego postanowili wykorzystać w słusznej sprawie ludzkie zamiłowanie do rozwiązywania zagadek. Gra komputerowa Foldit przemieniła składanie białek w coś na kształt sportowej konkurencji. Dzięki wysiłkom graczy uda się być może znaleźć lekarstwo na chorobę Alzheimera i inne przypadłości, w przypadku których konformacja białek ma kluczowe znaczenie. Pierwszy etap gry to 20-minutowy trening. Uczestnicy zabawy opanowują podstawowe zasady fizyki, oczywiście w odniesieniu do budowy protein. Później Foldit nie różni się już niczym od dobrze wszystkim znanych gier wideo. Mamy nadzieję, że zmieniamy sposób uprawiania nauki i wpływamy na to, kto się nią zajmuje. Nasz ostateczny cel? Chcielibyśmy, by tzw. zwykły człowiek brał udział w zabawie i koniec końców mógł zostać kandydatem do Nagrody Nobla [w dziedzinie medycyny - red.] - podkreśla jeden z twórców Foldit, Zoran Popović. W ludzkim organizmie znajduje się ponad 100 tysięcy białek, które pełnią wiele różnych funkcji, np. tworzą poszczególne komórki czy wpływają na tempo przebiegu reakcji chemicznych. Często wiemy, które geny je kodują, nie mamy jednak pojęcia, w jaki sposób przyjmują one złożone kształty, a przecież ich zakamarki i wypukłości są niezwykle istotne z biologicznego punktu widzenia. Symulacje komputerowe umożliwiają przewidzenie wszelkich możliwych kształtów białek. Ponieważ mamy do czynienia z ogromną ilością danych, w 2005 roku inny członek zespołu badawczego z Uniwersytetu Waszyngtońskiego, David Baker, rozpoczął projekt o nazwie Rosetta@home. Bazuje on na tzw. przetwarzaniu rozproszonym i angażuje moc obliczeniową komputerów wolontariuszy. Baker podkreśla, że tego typu rozwiązania sprawdzają się w przypadku prostych białek, ale złożonym proteinom mogą nie sprostać nawet superkomputery. Stąd pomysł, by wykorzystać w jakiś sposób ludzką intuicję. Używając swojej intuicji, ludzie mogą dużo szybciej dojść do właściwego rozwiązania. Foldit wykorzystuje zdolność naszego gatunku do myślenia w trzech wymiarach. Baker udowadnia, że nie trzeba być biologiem, by dobrze wypaść w grze. Jego 13-letni syn osiąga bowiem w składaniu białek dużo lepsze rezultaty od niego samego. Naukowcy mają nadzieję, że dzięki Foldit uda im się namierzyć naturalnych geniuszy formowania protein, którzy pomogą w rozwiązaniu wielu zagadek. Niektórzy ludzie spoglądają tylko na grę i po mniej niż 2 minutach osiągają najlepszy wynik. Nie potrafią nawet wyjaśnić, jak to zrobili, ale jakimś cudem im się to udaje. Wersję beta gry przetestowało ponad tysiąc osób. Przypomina ona nieco Tetrisa. Foldit można instalować na maszynach z różnymi systemami operacyjnymi, także na tych z Linuksem. Od tego tygodnia gra jest dostępna dla wszystkich, nie tylko dla testerów z uczelni. Co dwa lata będą się odbywać zawody, w ramach których "zwykli ludzie" będą walczyć z grupami naukowców z różnych zakątków świata. Od jesieni br. w grze pojawią się nowe funkcje, np. tworzenie białek, które by się nam przydały, w tym enzymów rozkładających toksyczne odpady czy absorbujących z atmosfery nadmiar dwutlenku węgla. Naukowcy nie wykluczają też, że postawią graczom niezwykle ambitne zadania. Ich przeciwnikiem mogą być np. HIV czy malaria, a zadaniem grającego będzie stworzenie białka, które zablokuje działanie wirusa i go zniszczy. Całość nie ograniczy się tylko do świata wirtualnego. Najlepsze proteiny będą syntetyzowane i testowane w prawdziwym laboratorium, a najlepiej radzący sobie gracze będą wymieniani w publikacjach naukowych jako współautorzy badań. Baker ma nadzieję, że z czasem dzięki grze znacząca część populacji będzie zaangażowana w rozwiązywanie najważniejszych problemów zdrowotnych trapiących ludzkość. Foldit zawiera też elementy gry wieloosobowej. Gracze mogą łączyć się w drużyny, rozmawiać ze sobą i tworzyć osobiste profile. Naukowcy będą analizowali sposób działania najlepszych graczy, by dowiedzieć się, w jaki sposób doszli do swoich rozwiązań. Informacje te będą wykorzystywane do ciągłego ulepszania gry. Projekt Foldit jest finansowany przez tak znane firmy i instytucje jak DARPA, Howar Hughes Medical Institute, Microsoft, Adobe, Nvidia i Intel.
×
×
  • Create New...