Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'Intel' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 308 wyników

  1. Redaktorzy serwisu FudZilla zdobyli informacje na temat serwerowych procesorów Intela bazujących na 45-nanometrowej kości Penryn. Układy dla serwerów noszą kodową nazwę Harpertown. Najbardziej wydajnym z nich będzie Xeon X5460, który ma być taktowany zegarem o częstotliwości 3,16 GHz, będzie posiadał cztery rdzenie, 12 megabajtów pamięci L2 i ma współpracować z 1333-megahercową magistralą systemową. Procesor będzie korzystał z używanej obecnie podstawki FC-LGA6, a jego cena w momencie premiery wyniesie 1139 dolarów. Wszystkie serwerowe odpowiedniki Penryna mają być nazywane według schematu Xeon X54x0.
  2. Inżynierowie Intela przygotowali zestaw przykładowych aplikacji, które pokazują, w jaki sposób można wykorzystać 80-rdzeniowy procesor w codziennych zastosowaniach. Napisano na przykład program, który ułatwia domową obróbkę filmów wideo. Obecnie wykorzystywane pecety mają na tyle małą moc obliczeniową, że zadania związane z manipulacją wideo trwają często nawet kilkanaście godzin. Specjaliści Intala przygotowali program, który błyskawicznie usuwa z filmu wideo wszelkiego typu artefakty i inne niedoskonałości. Taki program mógłby być udostępniany np. przez serwis YouTube, który za pośrednictwem domowego komputera wyposażonego w 80-rdzeniowy komputer, poprawiałby filmy przed umieszczeniem ich w Sieci. Inny program, też związany z obróką wideo, jest w stanie śledzić przebieg filmu i, korzystając z najlepszych ujęć, odpowiednio poprawiać oświetlenie niedoświetlonych scen czy uwypuklać najważniejsze dla twórcy filmu fragmenty. Intel pokazał też program, który pozwala użytkownikowi ręcznie manipulować obiektami na ekranie komputera. Wystarczy tylko kamera podłączona do peceta i odpowiednio wydajny procesor. W serwisie YouTube , pokazujący działanie tej ostatniej aplikacji.
  3. Intel znacząco obniżył ceny swoich procesorów. Czterordzeniowe kości staniały o 47-50 procent, co czyni ostatnią obniżkę rekordową w ciągu ostatnich lat. Układy Core 2 Quad Q6600 (2,40 GHz, 8MB L2, PSB 1066 MHz) i Xeon 3220 (2,40 GHz, 8MB L2, PSB 1066 MHz) kosztują 266 dolarów. Oczywiście przy hurtowym zakupie 1000 sztuk. Na tyle samo wyceniono procesor Core 2 Duo E6850 (3,0 GHz, 8MB L2, 1333 MHz PSB), a układ E6600 (2,40 GHz, 8MB L2, 1066 MHz PSB) kosztuje 244 dolary. Staniały również procesory Xeon 3210 oraz Core 2 Duo E6400 i E6420. Mimo że obniżki objęły też procesory dwurdzeniowe, to wyraźnie widać, że Intel chciał zainteresować klientów układami czterordzeniowymi. Ich cena stała się bowiem bardzo atrakcyjna i można przypuszczać, że znajdą one coraz więcej nabywców.
  4. Intel przygotowuje kolejną edycję serwerowych procesorów Itanium 2. Nowe kości z rdzeniem Montvale mają zastąpić obecnie wykorzystywane układy z rdzeniem Montecito. Procesory Montvale nie przynoszą zbyt wielu zmian w porównaniu ze swoimi poprzednikami. Systemy korzystające z nowych CPU mogą być łatwo skalowalne w zakresie od 2 do 512 podstawek procesora, czyli od 4 do 1024 rdzeni. Układy Montvale zyskują nowe oznaczenia. O ile kości Montecito były oznaczane jako seria 9000, to Montvale będą 9100. Nowe procesory wykorzystują technologię Demand Based Switching (DBS), dzięki której w okresach bezczynności wchodzą w tryb oszczędzania energii. DBS znalazła zastosowanie w bardziej wydajnych Montvale, oznaczonych numerami 9140N, 9140M, 9150N i 9150M. Pobór mocy nowych układów wyrażony wydzielaniem ciepła (TDP) wynosi, mimo zastosowania DBS, 104 waty. Itanium 2 z serii 9100 będą produkowane, podobnie jak procesory Montecito, w 90-nanometrowym procesie. Największą różnicą pomiędzy kośćmi 9000 a 9100 będzie zmiana prędkości pracy magistrali systemowej. Układy 9100 oznaczone literą M współpracują z magistralą taktowaną zegarem o częstotliwości 667 MHz. Te z literą N działają z 400- i 533-megahercową magistralą. Wszystkie dwurdzeniowe Itanium, z wyjątkiem modelu 9130M są w stanie przetwarzać jednocześnie do czterech wątków. W rodzinie Montvale znalazła się też kość jednordzeniowa. To układ 9110N. Jego TDP wynosi 75 watów. Intel nie przygotował nowego chipsetu dla nowych procesorów. Współpracują one z kością 8870, która obsługuje 400-megahercową FSB. Klienci, którzy chcieliby skorzystać z procesorów Itanium 2 i szybszej magistrali systemowej, muszą kupić płytę główną wyposażoną w chipset innego producenta. Debiut procesorów Montvale przewidziany jest na przyszły kwartał. Ich następca trafi na rynek nie wcześniej niż w drugiej połowie przyszłego roku. Oznaczenie procesora Częstotliwość zegara FSB Cache L3 Cena 9150M 1,66 GHz 667 MHz 24 MB 3692 USD 9150N 1,60 GHz 533/400 MHz 24 MB 3692 USD 9140M 1,66 GHz 667 MHz 18 MB 1980 USD 9140N 1,60 GHz 533/400 MHz 18 MB 1980 USD 9130M 1,66 GHz 667 MHz 8 MB 1552 USD 9120N 1,42 GHz 533/400 MHz 12 MB 910 USD
  5. Z informacji przekazanych przez tajwańskich producentów płyt głównych wynika, że pierwszy 45-nanometrowy procesor Intela nie będzie tani. Czterordzeniowy układ z rodziny Core 2 Extreme ma kosztować 999 dolarów. Kość będzie taktowana zegarem o częstotliwości 3,33 GHz, zostanie wyposażona w 12 megabajtów pamięci podręcznej L2 i ma współpracować z 1333-megahercową magistralą systemową. Jeszcze nie wiadomo, jakim numerem zostanie oznaczona. Niedługo po tym CPU na rynek trafią mniej wydajne, a co za tym idzie, tańsze układy wykonane w technologii 45 nanometrów. Najpierw pojawią się dwie czterordzeniowe kości z 12-megabajtowym L2, które mają współpracować z FSB 1333 MHz. Natomiast w pierwszej połowie przyszłego roku w sklepach pojawią się dwurdzeniowe kości Wolfdale. Trzy z nich, wyposażone w 6 MB L2, wykorzystają FSB taktowaną zegarem o częstotliwości 1333 megaherców. Ostatnia, najmniej wydajna, będzie współpracowała z 1066-megahercową magistralą i skorzysta z 3 megabajtów pamięci L2.
  6. Intel jest autorem inicjatywy o nazwie Moblin. Jej celem jest rozwój opartego na Linuksie oprogramowania dla urządzeń przenośnych. Uruchomiono już witrynę Moblin.com, na której można przeczytać o linuksowych planach Intela. Inżynierowie półprzewodnikowego giganta planują m.in. rozwijanie jądra, interfejsu użytkownika, przeglądarki internetowej i narzędzia do edycji grafiki. Intel planuje współpracować z kilkoma już istniejącymi programami. Na razie udało się nawiązać współpracę z Mobile and Embedded Edition Ubuntu i społecznością Midinux – Linuksa korzystającego z dystrybucji Red Hat. Na razie Intel skupia się na stworzeniu linuksowego oprogramowania dla chipsetu 945GU Express i kontrolera ICH7. Prace mają doprowadzić do powstania linuksowej platformy „Ultra Mobile Platform 2007”.
  7. Intel zaoferował swój długo oczekiwany mobilny procesor Core 2 Extreme. Najnowzse dziecko koncernu to dwurdzeniowy układ taktowany zegarem 2,6 GHz i wyposażony w 4-megabajtowy współdzielony przez oba rdzenie obszar pamięci cache L2. X7800, bo tak oznaczono CPU, został wykonany w technologii 65 nanometrów i współpracuje z 800-megahercową magistralą systemową. Co ciekawe, w przeciwieństwie do pecetowych kości Core 2 Extreme, Intel nie zablokował tego proceosora, możliwe jest więc podkręcenie jego zegara. Układ X7800 nie należy do tanich. Przy zakupie 1000 sztuk należy za jeden procesor zapłacić 851 USD.
  8. Po latach sporów Intel i Nicholas Negroponte, twórca projektu taniego laptopa (OLPC), połączyli siły. Intel został 11., obok Google’a, eBaya czy AMD, członkiem zarządu programu One Laptop Per Child. Celem OLPC jest wyprodukowanie taniego komputera przenośnego, który byłby odporny na trudne warunki atmosferyczne panujące w Afryce czy Azji (kurz, wysoka temperatura, wilgoć), wyposażenie go w moduł łączności bezprzewodowej i dostarczenie go jak największej liczbie dzieci na całym świecie. Dotychczas Intel rozwijał swój własny, konkurencyjny wobec OLPC, projekt. Było to przyczyną nieporozumień pomiędzy obiema organizacjami. Z jednej strony Negroponte nie chciał odstąpić od swoich założeń, z drugiej Intel, który stworzył komputer Classmate PC, za wszelką cenę chciał zdobyć jak największą część rynku krajów rozwijających się. Doszło do wielu ostrych utarczek słownych, które szkodziły obu stronom. W końcu zdały sobie one sprawę, że więcej ich łączy niż dzieli. W założeniu laptop XO (bo tak nazywa się komputer autorstwa OLPC) miał kosztować 100 dolarów. Udało sie zbudować komputer kosztem 175 USD, ale Negroponte jest optymistą. Uważa, że gdy ruszy masowa produkcja koszty uda się obniżyć właśnie do wspomianych 100 USD. Pierwszym pozytywnym rezultatem dołączenia Intela do grupy OLPC będzie poprawienie jakości opensource’owego oprogramowania stosowanego na XO. Intel ma bardzo doświadczony zespół programistów specjalizujących się w Linuksie i Open Source – stwierdził Walter Bender, prezes OLPC ds. oprogramowania. Ponadto Intel chce, by w OX znalazły się produkowane przez tę firmę podzespoły. Will Swope, wiceprezes ds. korporacyjnych Intela zastrzega jednak przy tym, że decyzja będzie należała do OLPC i nie wpłynie ona na dalszą współpracę Intela z tą organizacją. Pojawiają się jednak podejrzenia, że Intel, przyłączając się do OLPC, chce, by jego układy scalone zastąpiły stosowane obecnie kości AMD. Rynki krajów rozwiniętych są już mocno nasycone komputerami i nie zapewniają tak dobrego wzrostu sprzedaży jak poprzednio. Zdobycie klientów w krajach, w których komputer jest wciąż trudno dostępny, może być bardzo istotne. AMD nie wydaje się jednak zaniepokojone. Obecnie nie widzimy żadnej zmiany w sposobie, w jakim AMD uczestniczy w projekcie. Witamy Intela wśród nas – mówi Rebecca Gonzales z AMD.
  9. W ubiegłym roku, podczas Intel Developer Forum przedstawiciele Intela twierdzili, że, zanim zadebiutuje czterordzeniowy procesor AMD, oni sprzedadzą milion własnych układów z czterema rdzeniami. Intel poinformował właśnie, że osiągnął zakładany cel. Rodzina czterordzeniowych procesorów Intela składa się z kości przeznaczonych na średni i wyższy segment rynków desktopów, stacji roboczych i serwerów. Za trzy tygodnie koncern planuje obniżyć ceny procesorów Core 2 Quad i Core 2 Extreme, przeznaczonych dla pecetów i stacji roboczych. Niedługo później obniżce ulegną też ceny serwerowych Xeonów. Jeszcze w bieżącym kwartale zadebiutują kolejne serwerowe czterordzniowce – Xeony Tigerton. Będzie je można stosować nawet w 32-procesorowych maszynach. Natomiast w przyszłym roku będziemy świadkami pojawienia się układów Tukwila. Będą to czterordzeniowe CPU z rodziny Itanium, które mają wykorzystywać technologię CSI (common system interface). Dzięki niej kości Xeon i Itanium będą miały podobną architekturę. AMD właśnie zapowiedziało, że pierwszy czterordzeniowy CPU tej firmy – Barcelona – zadebiutuje w sierpniu.
  10. Komisja Europejska rozpoczęła nieformalne śledztwo w sprawie konkurujących ze sobą formatów HD DVD i Blu-ray. Komisja zażądała, by producenci i dostawcy treści dla tych technologii, wytłumaczyli, dlaczego postanowili poprzeć dany format. Do 6 lipca eurourzędnicy czekają na wszelkie dokumenty związane z podjęciem takich, a nie innych decyzji. Rzecznik Komisji, Jonathan Todd, stwierdził, że chce się ona dowiedzieć, czy nie dochodzi do przypadków dyskryminacji któregoś z formatów. Dlatego też KE na razie zbiera dokumenty i nie rozpoczęła formalnego śledztwa. Dotychczas nikt nie składał skarg na blokowanie konkurencji, można jednak przypuszczać, że firmy popierające HD DVD (m.in. Toshiba, Intel i Microsoft) lobbowały w Komisji za rozpoczęciem śledztwa i wyjaśnieniem, dlaczego aż pięć studiów filmowych popiera tylko i wyłącznie format Blu-ray. Pozostałe studia produkują filmy na nośnikach obu formatów, a tylko jedno ze studiów (Universal) oferuje swoją produkcję tylko i wyłącznie na HD DVD.
  11. Allan Yogasingam z Semiconductor Insights wraz ze współpracownikami zdjęli obudowę iPhone’a i przyjrzeli się wnętrzu urządzenia.. Z kilku układów scalonych trzy były oznaczone logo Apple’a, a na czterech w ogóle nie podano producenta. Badacze rozpuścili ich obudowy w kwasie, by przekonać się, kto jest ich prawdziwym wytwórcą. Pierwszą z kości oznaczonych logo firmy Jobsa okazał się procesor Samsunga, który składa się z układu S5L8900 i dwóch 512-megabitowych układów SRAM. Kość S5L8900 nosi numery seryjne podobne do tych, jakie można spotkać w smartfonach czy palmtopach. Jest więc takim samym układem scalonym, jakie stosują inni producenci urządzeń elektronicznych. Drugim układem z logo Apple’a jest kość BCM5973A firmy Broadcom. Brak o niej bliższych informacji, badacze uważają jednak, że obsługuje ona kontroler wejścia/wyjścia używany przez wyświetlacz dotykowy. Ostatnim układem, który nosi znak firmowy przedsiębiorstwa Jobsa jest kość produkcji Philipsa. Jej oznaczenia przypominają oznaczenia układu LPC2221, jednak osoby badające telefon nie miały pojęcia do czego ona służy. Producentem dwóch z pozostałych sześciu kości jest Infineon. W iPhonie zastosowano układ PMB8876 S-Gold 2, odpowiedzialny za obsługę multimediów i technologii EDGE. Drugą z kości Infineona jest nadajnik GSM RF. Kolejny wytwórca, którego układ znalazł się w iPhonie jest National Semiconductor. Jego produkt to 24-bitowy serializer interfejsu wyświetlacza RGB. Rola pozostałych elementów jest trudniejsza do odgadnięcia. Jeden z nich to prawdopodobnie układ Texas Instruments odpowiedzialny za zarządzanie poborem energii przez iPhone’a. Dwa inne elementy to układy typu MCP (multi-chip package) firm STMicroelectronics i Peregrine Semiconductor. Ostatni to kość oznaczona jako PMA19. Sporo wykorzystanych elementów jest bardzo podobnych do układów obecnych w iPodach. Zastosowano m.in. układ Wolfson WM8758, który zajmuje się przetwarzaniem dźwęku. Identyczną kość wykorzystano do budowy iPodów, więc iPhone powinien charakteryzować się podobną jakością dźwięku. Innymi podobnym komponentami są kości Samsunga, Linear Technology i Silicon Storage Technologies. Jest też kilka zupełnie nowych elementów. Należą do nich m.in. układ Marvell 88W8686, który zapewnia łączność bezprzewodową WLAN oraz CSR BlueCore 4 ROM, odpowiedzialny za obsługę technologii Bluetooth. Ta sama kość znalazła się w urządzeniu BlackBerry Pearl 8100. Z kolei twórcą ekranu dotykowego jest niemiecka Balda, znana z odpornych na zarysowanie ekranów. Apple najwyraźniej wziął sobie do serca skargi klientów na wyświetlacze w iPodach. W iPhonie znalazły się również kości flash wyprodukowane przez Intela.
  12. Opublikowano kolejną edycję listy TOP500, czyli zestawienia 500 najpotężniejszych superkomputerów świata. W bieżącej edycji nie znalazł się jeszcze, co zrozumiałe, Blue Gene/P, o którym pisaliśmy wczoraj. Numerem 1. wciąż więc jest Blue Gene/L. Na liście zaszły znaczne zmiany, szczególnie w czołówce. Swoją pozycję umocniła firma Cray, której superkomputery zajęły 2. i 3. miejsce. Jedną z ciekawych zmian jest fakt, że w czołowej 500 znalazły się dwie maszyny wykorzystujące Windows Compute Cluster Server 2003. Dotychczas na superkomputerach spotykane były pojedyncze instalacje systemów Windows 2000 czy Windows Server 2003. Nie cieszyły się one zbytnią popularnością o czym świadczy chociażby fakt, że na liście z października 2006 nie było już żadnego superkomputera z systemem Microsoftu. Windows Compute Cluster Server 2003 to pierwszy system z Redmond, który powstał z myślą o najbardziej wydajnych maszynach. Najbliższe edycje listy (publikowana jest ona co pół roku), powinny pokazać nam, czy Microsoft ma szanse na zaistnienie na rynku superkomputerów. Niekwestionowanym liderem zestawienia systemów operacyjnych dla superkomputerów jest jednak Linux, który zainstalowano na 77,8% maszyn z TOP500. Drugie miejsce zajmuje Unix (12%). Maszyna, aby zostać wpisaną na obecną listę musi charakteryzować się wydajnością co najmniej 4,005 teraflopsa. Jeszcze pół roku temu wystarczyło 2,737 TFlops. Co więcej, komputer, który obecnie znajduje się na miejscu 500. przed sześcioma miesiącami zająłby 216. pozycję. To największy skok w 15-letniej historii projektu TOP500. Bardzo dobrze świadczy to ogromnym zapotrzebowaniu na moce obliczeniowe i przyspieszeniu prac nad superkomputerami. Łączna moc obliczeniowa 500 maszyn z listy wyniosła 4,92 petaflopsa. To dużo więcej niż 3,54 PFlops sprzed pół roku. Jednocześnie pokazuje nam jak olbrzymią mocą charakteryzuje się najnowszy superkomputer IBM-a – Blue Gene/P. Najpopularniejszymi procesorami wykorzystywanymi do budowy superkomputerów są układy Intela. Zastosowano je na 289 maszynach (57,9%). Pół roku temu do Intela „należało” 261 superkomputerów (52,5%). Rynek straciło zarówno AMD (105 systemów czyli 21% obecnie, a 113 systemów i 22,6% przed pół roku) oraz IBM (teraz 85 superkomputerów i 17-procentowy udział, wcześniej 93 maszyny i 18,6% rynku). Rynek superkomputerów zdominowały procesory dwurdzeniowe. Olbrzymim sukcesem mogą pochwalić się Woodcresty Intela. Jeszcze sześć miesięcy temu wykorzystano je jedynie w 31 maszynach, teraz są obecne w 205 systemach. Wzrosły też udziały dwurdzniowych Opteronów AMD, z 75 do 90 komputerów. Największym producentem pod względem liczby maszyn na TOP500 jest HP. Na liście znajdują się 202 (40,4%) komputerów tego wytwórcy. Drugie miejsce, ze 192 (38,4%) systemami zajął IBM. Inni producenci, jak Dell (23 maszyny), SGI (19) czy Cray (11) nie przekroczyli 5%. Z kolei liderem listy ułożonej pod względem wydajności zainstalowanych maszyn pozostaje IBM. W sumie wszystkie superkomputery tego producenta dostarczają 41,9% (pół roku temu było to 49,5%) mocy wszystkich 500 maszyn. Drugie miejsce (24,5% mocy, wzrost z 16,5%) zajął HP. Najwięcej superkomputerów znajduje się w USA. Stoi tam 281 najpotężniejszych maszyn na świecie. Na drugim miejscu z 42 maszynami uplasowała się Wielka Brytania, a na trzecim Niemcy, które posiadają 24 komputery z listy TOP500. Po jednym superkomputerze mają Indonezja, Nowa Zelandia, Filipiny, RPA, Turcja, Zjednoczone Emiraty Arabskie i Wietnam. Żaden z polskich superkomputerów nie dostał się na listę. Poniżej przedstawiamy 10 najpotężniejszych maszyn z TOP500: LP Właściciel komputera i kraj Nazwa i producent Procesory Wydajność (GFlops) Wydajność szczytowa (GFlops) 1 Lawrence Livermoore National Laboratory USA Blue Gene/L IBM 131072 280600 367000 2 Oak Ridge National Laboratory USA Jaguar Cray 23016 101700 119350 3 Sandia National Laboratories USA Red Storm Cray 36544 101400 127411 4 IBM Thomas J. Watson Research Center USA BGW IBM 40960 91290 114688 5 New York Center for Computational Sciences USA New York Blue IBM 36864 82161 103219 6 Lawrence Livermoore National Laboratory USA ASC Purple IBM 12208 75760 92781 7 Rensselaer Polytechnic Institute USA eServer Blue Gene Solution IBM 32768 73032 91750 8 NCSA USA Abe Dell 9600 62680 89587 9 Centro Nacional de Supercomputación Hiszpania Mare Nostrum IBM 10240 62630 94208 10 Leibniz Rechenzentrum Niemcy HLRB II SGI 9728 56520 62259 1 GFlops = 1 miliard operacji zmiennoprzecinkowych na sekundę.
  13. Intel oznajmił, że "przeskoczy” 45-nanometrowy proces produkcyjny i nowy procesor Itanium o nazwie kodowej Poulson będzie wytwarzany od razu w technologii 32 nanometrów. Decyzja taka nie świadczy jednak o przyspieszeniu rozwoju technologicznego, a o opóźnieniu całej rodziny Itanium. Spowodowało ono, że Poulson trafi na rynek w momencie, gdy obecne na nim będą już kości wykonane w technologii 32 nanometrów. Wiadomo też, że wraz z Poulsonem zadebiutuje nowa mikroarchitektura, jednak Intel nie zdradza żadnych szczegółów na jej temat. Z „mapy drogowej” Intela wynika, że pierwsze 32-nanometrowe procesory tej firmy zadebiutują w 2009 roku. Najpierw jednak nowy proces produkcyjny wdrażany jest zwykle na mniej ryzykownym rynku komputerów domowych, a później tworzone są w nim kości na rynek przedsiębiorstw. Dlatego też można przypuszczać, że Poulson zadebiutuje w 2010 roku.
  14. Pozycja AMD na rynku stacji roboczych nigdy nie była silna. Sytuacja firmy zaczęła nieco poprawiać się dopiero po premierze procesorów Opteron. AMD bardzo powoli zyskiwało rynek. W drugiej połowie 2006 roku do firmy należało 3,6% rynku jednoprocesorowych stacji roboczych i 13,3% stacji dwuprocesorowych. Był to rekordowy wynik w historii firmy. Intel miał w tym czasie, odpowiednio 96,4% oraz 86,7% udziałów. Po premierze intelowskich układów Core 2 sytuacja zaczęła zmieniać się na niekorzyść AMD. W pierwszym kwartale bieżącego roku udziały firmy zaczęły spadać i, zdaniem firmy Jon Peddie Research, osiągną poziom 2% dla rynku stacji jednoprocesorowych i 8% dla dwuprocesorowych. Intel będzie miał 98% i 92% udziałów. Sytuacja AMD jest nie do pozazdroszczenia również na rynku desktopów. Także i na nim firma miała w ubiegłym roku rekordowe udziały. Jednak pojawienie się procesorów Core 2 i agresywna wojna cenowa spowodowały, że w ciągu trzech miesięcy Intel odebrał AMD to, co firma ta zdołała uzyskać w ciągu całego 2006 roku. Jakby tego jeszcze było mało, część źródeł twierdzi, że opóźnieniu ulegnie premiera czterordzeniowego procesora Barcelona. Jeśli przewidywania te się sprawdzą, AMD czekają kolejne kłopoty. Tym bardziej, że przed paroma miesiącami pojawiły się informacje o poważnych problemach finansowych firmy.
  15. Specjaliści Intela pracują nad technologiami, które pozwolą na łatwiejsze oprogramowanie wielordzeniowych procesorów. I nie chodzi tutaj o procesory dwu- czy czterordzeniowe. Mowa o układach, które będą zawierały kilkadziesiąt rdzeni. Co więcej celem Intela jest stworzenie łatwego do oprogramowania układu, który będzie zawierał różne rodzaje rdzeni. Może to być np. 64-rdzeniowa kość z 42 rdzeniami x86 (czyli takimi jakie znajdują się w procesorach wykorzystywanych w domu), 18 akceleratorami wyspecjalizowanymi w dokonywaniu określonych typów obliczeń i 4 rdzeniami graficznymi. Procesory wielordzeniowe stanową poważny problem dla twórców oprogramowania. Najlepszym przykładem jest dziewięciordzeniowy Cell zastosowany w konsoli PlayStation 3, który jest krytykowany przez wielu specjalistów właśnie za trudności z jego programowaniem. Różne firmy pokazywały już procesory składające się z kilkudziesięciu rdzeni. Przed trzema laty ClearSeed Technology zaprezentowała 96-rdzeniowy układ. Niedawno Intel pochwalił się kością z 80 rdzeniami. Układy te są jednak wąsko wyspecjalizowane i mogą przeprowadzać tylko pewne rodzaje obliczeń. Dlatego też powstaje pytanie, czy wielordzeniowe CPU mogą składać się z rdzeni x86 (80-rdzeniowiec Intela nie zawierał tego typu rdzeni) i czy są w stanie współpracować z obecnie dostępnym oprogramowaniem i systemami operacyjnymi. Eksperci Intela twierdzą, że można stworzyć taki procesor i właśnie nad tym zagadnieniem pracują. Jeden z ich pomysłów wzoruje się na egzoszkielecie niektórych zwierząt. Intel proponuje, by wiele rdzeni tworzyło albo wielką sieć albo też jeden olbrzymi rdzeń. Zadania pomiędzy rdzeniami rozdzielane byłyby sprzętowo, nie programowo. Odpowiedni układ dbałby o to, by rdzenie były odpowiednio wykorzystane. Jego zadaniem byłoby też zapewnienie jak najmniejszego wydzielania ciepła. Gdy któryś z rdzeni zacząłby się nadto rozgrzewać, jego zadania zostały by przydzielone sąsiedniej jednostce obliczeniowej. Kolejnym zmartwieniem inżynierów, oprócz przydzielania zadań rdzeniom, jest podział pamięci podręcznej (cache). Obecnie stosowane procesory 2- i 4-rdzeniowe współdzielą obszar pamięci podręcznej. Gdy mamy do czynienia z ośmioma czy szesnastoma rdzeniami sprawy się komplikują – mówi Jerry Bautista, jeden z dyrektorów intelowskiego Tera-Scale Computing Research Program. Jego zespół pracuje nad technologią, która nadawałaby priorytet poszczególnym rdzeniom w dostępie do pamięci cache. To bardzo ważne, gdyż, jak wykazały testy, sama optymalizacja dostępu do cache’u zwiększa wydajność procesora o 10 do 20 procent. Także dostępem do pamięci podręcznej ma się zająć odpowiedni układ. Dzięki temu programiści nie będą musieli być świetnymi specjalistami od zarządzania cache’m czy przyznawania czasu pracy poszczególnym rdzeniom. Wszystkim zajmie się sam procesor. Następnym wyzwaniem stojącym przed inżynierami Intela jest problem wydzielania się ciepła przez układy wejścia-wyjścia. Przy obecnie wykorzystywanych technologiach system I/O wymaga 10 watów mocy do przeprowadzenia operacji z prędkością 1 terabita na sekundę. W warunkach laboratoryjnych Intelowi udało się uzyskać wydajność rzędu 5 Gbps (gigabitów na sekundę) przy poborze 14 miliwatów. Układ zużywa więc o 14% mniej mocy niż obecnie wykorzystywane analogiczne kości. Energooszczędne układy I/O muszą być zastosowane do komunikacji pomiędzy poszczególnymi rdzeniami oraz pomiędzy procesorami. Jeśli nie uda ich się opracować, cały wysiłek może pójść na marne, gdyż kilkudziesięciordzeniowy procesor może wydzielać tyle ciepła, że jego schłodzenie w warunkach domowych nie będzie możliwe. Zdaniem specjalistów Intela, pierwsze CPU wyposażone w kilkadziesiąt rdzeni mogą trafić na rynek w ciągu pięciu lat. Będą one korzystały z technologii Through-Silicon Vias (TSV), a nie, jak obecnie, z jednej dużej magistrali. Technologia TSV (through-silicon vias) pozwala na łączenie zarówno procesora i pamięci, jak i rdzeni procesora ze sobą. Połączenie jest realizowane przez tysiące niewielkich przewodów, którymi wędrują dane. Obecnie zadania te spoczywają na urządzeniach zwanych szynami, które jednak często ulegają przeciążeniu. TSV pozwala na przesłanie większej ilości danych w ciągu sekundy, a pobór mocy jest przy tym niższy niż w przypadku szyn.
  16. Intel, Google i kilka innych firm oznajmiło, że mają zamiar pracować nad poprawieniem wykorzystania energii przez komputery.Celem wspomnianych przedsiębiorstw jest promowanie takiego zasilacza dopecetów i serwerów, który charakteryzowałby się ponad 90-procentowąwydajnością. Urządzenia takie pozwoliłoby zaoszczędzić energię i zredukować temperaturę pracy komputera. Obecnie, jak poinformował Urs Hölzle z Google’a, połowa energii dostarczanej do pecetów jest marnowana. Zamienia się ona w bezużyteczne ciepło lub jest tracona podczas konwersji z prądu zmiennego na stały. Nieco lepszą wydajnością mogą poszczycić się serwery. W ich przypadku marnowane jest „tylko” 30% energii. Lepiej skonstruowane zasilacze i podzespoły pozwoliłyby na wykorzystanie co najmniej 90% pobranej energii. Google ma na tym polu spore osiągnięcia. Firma twierdzi, że jej serwery wykorzystują od 90 do 93 procent dostarczanej im energii. To nie jest problem technologiczny. Już w tej chwili wykorzystujemy zasilacze, których skuteczność wynosi 90 procent – mówi Hölzle. Głównym problemem jest cena. Przeciętny pecet, w którym zastosowano by lepiej wykorzystujące energię komponenty, zdrożeje o 20 dolarów. W przypadku serwera cena wzrośnie o 30 dolarów. Koszty można by obniżyć, jeśli wspomniane komponenty produkowane byłyby na skalę masową. Ponadto pomóc też może odpowiednia polityka koncernów energetycznych. Kalifornijska firma Pacific Gas and Electric udziela swoim klientom zniżki na dostarczaną energię, jeśli używają oni energooszczędnych komputerów.
  17. Redaktorzy serwisu DailyTech mieli okazję przeprowadzić testy najnowszego procesora AMD o nazwie kodowej "Barcelona”. Niestety, czterordzeniowy układ mieli do dyspozycji bardzo krótko, więc uzyskane przez nich wyniki należy traktować ze sporym przybliżeniem. Testowany układ pochodził z najnowszego steppingu firmy. Obecnie AMD sugeruje, że Barcelona zadebiutuje oficjalnie pod koniec lipca. Producenci płyt głównych nie są tak optymistycznie nastawieni i twierdzą, że procesor ukaże się w najlepszym wypadku we wrześniu. Sam procesor może więc ulec jeszcze niewielkim modyfikacjom. Wracając jednak do samego testu, należy wspomnieć, że poddano mu procesor taktowany zegarem o częstotliwości 1,6 GHz, umieszczony na płycie głównej z chipsetem nForce Professional 3400, a cały system wykorzystywał 4 gigabajty pamięci DDR2-667. Kość AMD porównano z intelowskim Xeonem 3220, który współpracuje z zegarem 2,4 gigaherca. Układ Intela był zamontowany na platformie Garlow z chipsetem X38 i czterema gigabajtami pamięci DDR2-800. Standardowy test Cinebench trwał w przypadku procesora AMD 27 sekund. W przypadku układu Intela zakończył się po 17 sekundach. Xeon był więc o 58% szybszy przy zegarze taktowanym z częstotliwością większą o 50%. Można więc przypuszczać, że Barcelona będzie godnym przeciwnikiem dla najnowszych Xeonów. Na obu platformach wykorzystano 64-bitowy system Windows 2003 R2.
  18. Intel i Nvidia planują rozszerzyć współpracę. Zacieśnianie kooperacji pomiędzy największym producentem procesorów x86 a największym producentem procesorów graficznych to zła wiadomość dla AMD. Z nieoficjalnych doniesień wynika, że Intel zyska dostęp do niektórych technologii Nvidii. Obie firmy pierwszą umowę o współpracy zawarły pod koniec 2004 roku. Na jej podstawie Nvidia otrzymała zgodę i wszelkie informacje potrzebne do produkcji chipsetów współpracujących z procesorami Intela. Dzięki temu powstała seria nForce 4 Intel Edition. Wciąż nie wiadomo, co w zamian otrzymał Intel. Od pewnego czasu mówi się, że Intel ma zamiar w 2009 lub 2010 zaprezentować swój własny procesor graficzny. Ponadto w CPU Nehalem ma znaleźć się wbudowany rdzeń graficzny. Intel jest największym producentem układów graficznych wbudowanych w chipsecie. Oferta taka kierowana jest jednak na rynek najtańszych systemów komputerowych, a Intel chciałby zwiększyć swój margines zysku z produkcji układów zarządzających wyświetlaniem grafiki. Ponadto zintegrowanie rdzeni z CPU pozwoli Intelowi na poszerzenie swoich udziałów w rynku wbudowanych rozwiązań graficznych, bez konieczności zwiększania produkcji samych układów.
  19. Intel obniżył ceny procesorów. Hurtownicy mogą taniej kupić zarówno czterordzeniowce z rodziny Core 2 Quad, Celrony M, jak i serwerowe Xeony. Obniżki sięgają nawet 40%. Rekordowo, bo właśnie o te 40% spadła cena dwurdzeniowego Core 2 Duo E6700 (4 MB cache L2, 2,66 GHz, 1066 MHz FSB) oraz serwerowego Xeona 3070 (4 MB L2, 2,66 GHz, TDP 65W, 1066 MHz FSB). O niewiele mniej staniały czterordzeniowy Core 2 Quad Q6600 (8 MB L2, 2,40 GHz, 1066 MHz) oraz Xeony 3210 (8 MB L2, 2,13 GHz, TDP 105W, 1066 MHz FSB) i 3220 (8 MB L2, 2,40 GHz, TDP 105W, 1066 MHz FSB). W ich przypadku obniżki sięgają 38-39 procent. Zadowolone powinny być też osoby, które mają zamiar kupić tańsze układy. Obniżki objęły też kości Core 2 Duo E4300 (spadek ceny o 31%), E6300 (11%), E6400 (18%). Teraz wystarczy poczekać, aż obniżki dadzą o sobie znać również w handlu detalicznym.
  20. Z danych firmy analitycznej Mercury Research wynika, że w I kwartale bieżącego roku do Intela należało 80,5% rynku procesorów dla pecetów. Oznacza to, że w ciągu trzech miesięcy gigant zyskał 6% rynku i odebrał AMD to, co firma ta zdołała uzyskać w ciągu całego 2006 roku. Jeszcze gorszą informacją dla AMD jest to, co napisali analitycy JP Morgan. W opublikowanej przez nich opinii czytamy: Lepszej jakości produkty oraz agresywna polityka cenowa Intela pozwoliła tej firmie zwiększyć udziały rynkowe kosztem AMD. Sądzimy, że AMD będzie traciło rynek także w II kwartale. Poprzedni rok był dla głównego konkurenta Intela bardzo udany. Firma zdobyła 25,3 procenta rynku pecetów, co było rekordem w jej historii. Równie dobrze wiodło jej się na rynku serwerów (24,4%) i notebooków (18,3%). Odpowiedzią na rynkową ofensywę AMD było wypuszczenie przez Intela procesorów z nowej rodziny Core 2. Szybko okazało się, że produkty AMD nie są w stanie im dorównać pod względem wydajności. Firma została zmuszona do drastycznego obniżenia cen, tym bardziej, że wraz z premierą Core 2 Intel obniżył ceny swoich dotychczasowych układów. AMD zrobiła też fatalny błąd dostarczając producentom pecetów tak dużo swoich układów, że nie byli oni w stanie ich sprzedać. Z drugiej strony spowodowało to niedobór procesorów w handlu detalicznym. W efekcie AMD straciło rynek, a w pierwszym kwartale bieżącego roku zanotowało stratę w wysokości 611 milionów dolarów.
  21. Intel udostępnił wyniki testów wydajności procesorów Penryn. Układy tego typu trafią na rynek w bieżącym roku. CPU zaprezentowane podczas odbywającej się w Pekinie imprezy Intel Developer Forum (IDF) były taktowane zegarem o częstotliwości 3,33 GHz i współpracowały z 1333-megahercowę szyną systemową. Do testów, którym poddano dwu- i czterordzeniowe Penryny, wykorzystano płytę główną D975XBX2 BadAxe 2 wyposażoną w 2 gigabajty pamięci operacyjnej, kartę graficznę GeForce 8800 GTX oraz 32-bitową edycję systemu Windows Vista Ultimate. Dla porównania przetestowano również najbardziej wydajny z obecnie dostępnych procesorów Intela, taktowany 2,93-gigahercowym zegarem czterordzeniowiec Core 2 Extreme QX6800. Aplikacja testowa Penryn (2 rdzenie) Penryn (4 rdzenie) C2E QX6800 Mainconcept H.264 Encoder (w sekundach; im mniej, tym lepiej) 119 73 89 DivX 6.6 Alpha z VirtualDub 1.7.1 (w sekundach; im mniej, tym lepiej) 22 18 38 Cinebench R.9.5 (punkty; im więcej, tym lepiej) 1134 1935 1549 Cinebench R10 beta (punkty; im więcej, tym lepiej) 7045 13068 10416 W powyższej tabeli widzimy, że czterordzeniowy Penryn jest o 18% szybszy od czterordzeniowego Core 2 Extreme QX6800 podczas kodowania wideo H.264, a podczas wykorzystywania DivX jego wydajność jest ponaddwukrotnie wyższa. Nawet dwurdzeniowy Penryn ma kiludziesięcioprocentową przewagę nad C2E QX6800 podczas dekodowania DivX. Z kolei program Cinebench służący do testowania wydajności procesorów wskazuje na 25-procentową przewagę czterordzeniowego Penryna nad QX6800. Aplikacja Penryn (2 rdzenie) Penryn (4 rdzenie) Core 2 Extreme QX6800 3DMark06 - test procesora (punkty; im więcej, tym lepiej) 3061 4957 4070 3DMark06 - test całego systemu (punkty; im więcej, tym lepiej) 11015 11963 11123 Half Life 2: Lost Coast (ramki na sek.; im więcej, tym lepiej) 210 210 153 Jak łatwo można się przekonać Penryn świetnie spisuje się w grze Half Life. Jest o 37% bardziej wydajny od QX6800 i, co ciekawe, wydajność układu dwurdzeniowego dorównuje czterordzeniowemu. Ponadto czterordzeniowy Penryn jest o 20% bardziej wydajny w teście programem 3DMark. Czytaj również: Penryn: mała rewolucja Intela
  22. Intel pokazał rewolucyjną obudowę do notebooków. Obecnie nosi ona nazwę roboczą "portfolio wrap laptop” i składa się ze skóropodobnego materiału, na którym umieszczono duży wyświetlacz LCD o wysokiej rozdzielczości, wykonany z elektronicznego papieru. Notebooki z wyświetlaczami na obudowie pojawiły się już wcześniej na rynku (np. Asus W5fe), jednak były to bardzo małe wyświetlacze, a do ich skonstruowania nie używano elektronicznego papieru. Główne zalety intelowskiego wyświetlacza to duża rozdzielczość jak na tego typu urządzenia (800x600) oraz energooszczędność. Papier elektroniczny zużywa znacznie mniej energii niż tradycyjny LCD, a sama energia pobierana jest jedynie podczas zmiany wyświetlanego obrazu na inny. Wydłuża to czas pracy na bateriach, co ma podstawowe znaczenie podczas pracy z komputerem przenośnym. Wyświetlacze na obudowach wykorzystują obecną w Windows Viście technologię SideShow. Pozwala ona na zastosowanie dodatkowego ekranu, na którym bez potrzeby włączania całego komputera można np. przeglądać pocztę elektroniczną lub czytać książkę elektroniczną. Co ciekawe nową obudowę Intela nakłada się na już istniejącą. Można ją więc w razie potrzeby usunąć. Całość ma grubość 0,7 i waży około kilograma. Jest to, co prawda, prototyp, ale bardzo zaawansowany. Przedstawiciele Intela nie chcieli jednak powiedzieć, czy trafi on do masowej produkcji. Jedynymi wadami wyświetlacza są wady związane z papierem elektronicznym. Obraz wyświetlany jest w czterech odcieniach szarości, a jego aktualizacja trwa około sekundy.
  23. Podczas odbywającego się w Pekinie Intel Developer Forum (IDF) firma Intel dostarczyła nieco informacji na temat mobilnej platformy Montevina, która trafi na rynek w pierwszej połowie przyszłego roku. Będzie to kolejne wcielenie Centrino. Ukaże się ono rok po Santa Rosie, która zadebiutuje w przyszłym miesiącu. Montevina będzie bazowała na procesorze Core 2 Duo "Penryn” wykonanym w technologii 45 nanometrów. Ma wykorzystywać chipset Cantiga z ulepszonym modułem LAN o nazwie Boaz oraz moduły łączności bezprzewodowej Echo Peak i Shiloh. Shiloh to ulepszona wersja stosowanego obecnie modułu Wi-Fi 802.11n. Z kolei Echo Park będzie korzystał z technologii WiMax, a na tej samej karcie MiniPCI zostanie zintegrowane też radio. Intel udostępni opcjonalnie Dana Point, kartę z samym WiMaksem. Montevina będzie korzystała też z kolejnej wersji technologii Robson.
  24. Justin Rattner, główny technolog Intela, ma dokonać w bieżącym tygodniu pierwszej publicznej demonstracji działania intelowskich pamięci zmiennofazowych (PRAM – phase-change RAM). Pokaz będzie miał miejsce podczas odbywającego się właśnie Intel Developer Forum (IDF). Układy PRAM mogą zastąpić nie tylko kości flash, ale i DRAM. Pamięci zmiennofazowe to pamięci nieultone, co znaczy, że po wyłączeniu zasilania zawartość nie jest tracona. Działają więc podobnie jak flash, jednak mają nad tymi kośćmi taką przewagę, że pracują znacznie szybciej. Ich tempo odczytu i zapisu danych dorównuja układom DRAM. PRAM do zapisu danych wykorzystuje szkło chalkogenowe (zawierające tlenowce, a więc siarkę, tlen, tellur, selen lub polon). Szkło takie, pod wpływem temperatury, zmienia swoją strukturę pomiędzy krystaliczną a amorficzną. Oba stany odznaczają się różną opornością elektryczną, reprezentują więc wartości 0 i 1 potrzebne do zapisania danych. Dodatkową przewagą PRAM nad flash jest fakt, że układy flash działają wyłapując elektrony i "więżąc” je w komórce pamięci. Po dłuższym czasie taki elektron zostaje uwięziony na stałe i układ pamięci staje się przez to bezużyteczny. Kości PRAM muszą jeszcze udowodnić swoją przewagę nad DRAM. Jeśli nawet tego dokonają, to DRAM nie zniknie z naszych komputerów i urządzeń elektronicznych. Będą po prostu wykorzystywane w inny sposób niż dotychczas.
  25. IBM ma zamiar na masową skalę wykorzystywać nową technologię łączenia układów scalonych i ich części. Dzięki temu Błękitny Gigant chce poprawić ich wydajność i jednocześnie zmniejszyć pobór mocy. Technologia TSV (through-silicon vias) pozwala na łączenie zarówno procesora i pamięci, jak i rdzeni procesora ze sobą. Połączenie jest realizowane przez tysiące niewielkich przewodów, którymi wędrują dane. Obecnie zadania te spoczywają na urządzeniach zwanych szynami, które jednak często ulegają przeciążeniu. TSV pozwala na przesłanie większej ilości danych w ciągu sekundy, a pobór mocy jest przy tym niższy niż w przypadku szyn. IBM nie jest pierwszą firmą, która chce wykorzystać TSV. Wspominał już o tym Intel przy okazji swojego 80-rdzeniowego procesora. IBM ma natomiast zamiar zastosować nową technologię na masową skalę. Pierwsze próbki układów z TSV trafią do klientów jeszcze w bieżącym roku, a w 2008 zacznie się ich masowa produkcja. IBM ocenia, że w układach wykonanych z krzemu domieszkowanego germanem (tzw. rozciągnięty krzem) uda się zaoszczędzić nawet 40% energii. W układach z technologią TSV zostaną nawiercone mikroskopijne otwory, przez które zostanie przeciągnięte okablowanie z wolframu. Badacze IBM-a mają nadzieję, że w ciągu 3-5 lat dzięki TSV uda się połączyć pamięć bezpośrednio z procesorem, bez konieczności stosowania kontrolera pamięci. Powinno to zwiększyć wydajność o dalsze 10%, a pobór mocy zmniejszyć o 20%. Błękitny Gigant pokłada tak wielką nadzieję w nowej technologii, że planuje zastosowanie jest w swoich superkomputerach BlueGene. TSV pozwoli też na zmianę architektury płyt głównych. Obecnie niektóre firmy budują je w ten sposób, że łączą układają kości jedną na drugiej. Pozwala to zaoszczędzić miejsca, ale układy łączą się ze sobą za pośrednictwem szyn, więc nie ma zysku wydajności. TSV pozwoli pozbyć się szyn, a tym samym zwiększyć wydajność. Ponadto, dzięki likwidacji szyn możliwe będą dalsze oszczędności miejsca (układy będą połączone za pomocą poprowadzonych w środku kabli). Rozpowszechnienie się TSV doprowadzić może do zmiany sposobu sprzedaży układów producentom płyt głównych. Będą oni mogli kupić od takich firm jak IBM czy Intel gotowe połączone ze sobą zestawy, składające się z procesora, chipsetu i pamięci. To jedna z możliwych metod zwiększenia wydajności systemów komputerowych. Wśród innych warto wymienić technologię produkcji trójwymiarowych układów pamięci opracowaną przez Matrix Semiconductor czy technologię rozwijaną przez Sun Microsystems, która umożliwia przesyłanie danych pomiędzy odpowiednio blisko znajdującymi się układami. Interesująca jest również technologia Loki, firmy Rambus, która zapewnia przesył danych z prędkością 6,25 gigabita na sekundę przy poborze mocy rzędu 2,2 miliwata na gigabit. Niedawno Rambus pokazał prototypowy system Loki, który przez 40 godzin był w stanie pracować na dwóch bateriach AA i przesłał w tym czasie 3,6 petabita (3,6 miliona gigabitów) danych. Wracając do TSV warto wspomnieć, że Intel rozwija tą technologię od 2005 roku. Firma nie jest jednak jeszcze gotowa do jej wykorzystania na masową skalę. Inżynierowie Intela chcą użyć TSV do połączenia w jednej obudowie procesora i pamięci operacyjnej, to jednak rodzi poważne kłopoty związane z wydzielaniem ciepła. Wszystko więc wskazuje na to, że na rynek TSV trafi po raz pierwszy dzięki IBM-owi.
×
×
  • Dodaj nową pozycję...