Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Intel ujawnił benchmarki Penryna

Recommended Posts

Intel udostępnił wyniki testów wydajności procesorów Penryn. Układy tego typu trafią na rynek w bieżącym roku.

CPU zaprezentowane podczas odbywającej się w Pekinie imprezy Intel Developer Forum (IDF) były taktowane zegarem o częstotliwości 3,33 GHz i współpracowały z 1333-megahercowę szyną systemową.

Do testów, którym poddano dwu- i czterordzeniowe Penryny, wykorzystano płytę główną D975XBX2 BadAxe 2 wyposażoną w 2 gigabajty pamięci operacyjnej, kartę graficznę GeForce 8800 GTX oraz 32-bitową edycję systemu Windows Vista Ultimate.

Dla porównania przetestowano również najbardziej wydajny z obecnie dostępnych procesorów Intela, taktowany 2,93-gigahercowym zegarem czterordzeniowiec Core 2 Extreme QX6800.


Aplikacja testowa
Penryn (2 rdzenie)
Penryn (4 rdzenie)
C2E QX6800
Mainconcept H.264 Encoder
(w sekundach; im mniej, tym lepiej)
119
73
89
DivX 6.6 Alpha z VirtualDub 1.7.1
(w sekundach; im mniej, tym lepiej)
22
18
38
Cinebench R.9.5
(punkty; im więcej, tym lepiej)
1134
1935
1549
Cinebench R10 beta
(punkty; im więcej, tym lepiej)
7045
13068
10416

W powyższej tabeli widzimy, że czterordzeniowy Penryn jest o 18% szybszy od czterordzeniowego Core 2 Extreme QX6800 podczas kodowania wideo H.264, a podczas wykorzystywania DivX jego wydajność jest ponaddwukrotnie wyższa.

Nawet dwurdzeniowy Penryn ma kiludziesięcioprocentową przewagę nad C2E QX6800 podczas dekodowania DivX. Z kolei program Cinebench służący do testowania wydajności procesorów wskazuje na 25-procentową przewagę czterordzeniowego Penryna nad QX6800.

Aplikacja
Penryn (2 rdzenie)
Penryn (4 rdzenie)
Core 2 Extreme QX6800
3DMark06 - test procesora
(punkty; im więcej, tym lepiej)
3061
4957
4070
3DMark06 - test całego systemu
(punkty; im więcej, tym lepiej)
11015
11963
11123
Half Life 2: Lost Coast
(ramki na sek.; im więcej, tym lepiej)
210
210
153

Jak łatwo można się przekonać Penryn świetnie spisuje się w grze Half Life. Jest o 37% bardziej wydajny od QX6800 i, co ciekawe, wydajność układu dwurdzeniowego dorównuje czterordzeniowemu. Ponadto czterordzeniowy Penryn jest o 20% bardziej wydajny w teście programem 3DMark.

Czytaj również:
Penryn: mała rewolucja Intela

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Stan serca łatwo sprawdzić za pomocą prostego testu chodzenia po schodach, dowiadujemy się z badań, których wyniki przedstawiono podczas kongresu naukowego Europejskiego Towarzystwa Kardiologicznego (ESC). Doktor Jesús Peteiro, kardiolog ze Szpitala Uniwersyteckiego w A Coruña w Hiszpanii mówi, że jeśli wspięcie się na cztery zestawy schodów, składające się w sumie z 60 stopni, zajmuje Ci więcej niż 1,5 minuty, to stan twojego serca nie jest optymalny i warto zgłosić się do lekarza.
      Peteiro prowadził badania, których celem było sprawdzenie związku pomiędzy codziennymi czynnościami, takimi jak wchodzenie po schodach, a wynikami testów laboratoryjnych badających stan serca. Chcieliśmy znaleźć prostą i tanią metodę oceny stanu zdrowia serca. To ułatwiłoby lekarzom wychwycić pacjentów, których trzeba skierować na dalsze badania, mówi uczony.
      W badaniach wzięło udział 165 pacjentów skierowanych na próby wysiłkowe, o których wiadomo było, że albo cierpią na chorobę niedokrwienną serca, albo występują u nich objawy wskazujące na to schorzenie.
      Uczestnicy badań spacerowali bądź biegali na bieżni. Tempo stopniowo zwiększano, a ćwiczenie prowadzono do utraty tchu. Oceniano w ten sposób ich ekwiwalent metaboliczny (MET). Następnie po odpoczynku trwającym 15–20 minut badani mieli w szybkim tempie bez zatrzymywania się wejść na cztery zestawy schodów (w sumie 60 stopni). Nie mogli przy tym biec. Mierzono czas przejścia schodów.
      Następnie naukowcy analizowali związek pomiędzy MET a czasem wejścia na schody. Okazało się, że osoby, które pokonywały schody w czasie krótszym niż 40–45 sekund to osoby, których MET wynosił powyżej 9–10. Z wcześniejszych badań wiemy zaś, że uzyskanie wyniku 10MET jest powiązane z niskim ryzykiem zgonu, wynoszącym nie więcej niż 1% w ciągu roku i nie więcej niż 10% w ciągu 10 lat. W kolei osoby, które na przebycie wspomnianych schodów potrzebowały co najmniej 1,5 minuty, to ludzie, którzy osiągnęli wynik niższy niż 8MET, a to oznacza, że w ich przypadku ryzyko zgonu w ciągu roku wynosi 2–4%, a w ciągu 10 lat jest to 30%.
      Co więcej, podczas testu wysiłkowego na bieżni naukowcy obrazowali na bieżąco serca badanych. Również i te wyniki porównano z „testem schodów” i okazało się, że 58% osób, które na pokonanie schodów potrzebowały więcej niż 1,5 minuty miało nieprawidłowo działające serce. Podobne zjawisko zauważono u 32% osób, które potrzebowały mniej niż 1,5 minuty na wejście po schodach.
      Peteiro mówi, że uzyskane wyniki można przełożyć na całą populację, nie tylko na osoby, z niepokojącymi objawami ze strony serca. Co więcej, w przypadku osób bez objawów, ryzyko zgonu jest mniejsze niż u osób z objawami.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Po raz pierwszy w historii udało się zdobyć klucz szyfrujący, którym Intel zabezpiecza poprawki mikrokodu swoich procesorów. Posiadanie klucza umożliwia odszyfrowanie poprawki do procesora i jej analizę, a co za tym idzie, daje wiedzę o luce, którą poprawka ta łata.
      W tej chwili trudno jest ocenić rzeczywisty wpływ naszego osiągnięcia na bezpieczeństwo. Tak czy inaczej, po raz pierwszy w historii Intela udało się doprowadzić do sytuacji, gdy strona trzecia może wykonać własny mikrokod w układach tej firmy oraz przeanalizować poprawki dla kości Intela, mówi niezależny badacz Maxim Goryachy. To właśnie on wraz z Dmitrym Sklyarovem i Markiem Ermolovem, którzy pracują w firmie Positive Technolgies, wyekstrahowali klucz szyfrujący z układów Intela. Badacze poinformowali, że można tego dokonać w przypadku każdej kości – Celerona, Pentium i Atoma – opartej na mikroarchitekturze Goldmont.
      Wszystko zaczęło się trzy lata temu, gdy Goryachy i Ermolov znaleźli krytyczną dziurę Intel SA-00086, dzięki której mogli wykonać własny kod m.in. w Intel Management Engine. Intel opublikował poprawkę do dziury, jednak jako że zawsze można przywrócić wcześniejszą wersję firmware'u, nie istnieje całkowicie skuteczny sposób, by załatać tego typu błąd.
      Przed pięcioma miesiącami badaczom udało się wykorzystać tę dziurę do dostania się do trybu serwisowego „Red Unlock”, który inżynierowie Intela wykorzystują do debuggowania mikrokodu. Dzięki dostaniu się do Red Unlock napastnicy mogli
      zidentyfikować specjalny obszar zwany MSROM (microcode sequencer ROM). Wówczas to rozpoczęli trudną i długotrwałą procedurę odwrotnej inżynierii mikrokodu. Po wielu miesiącach analiz zdobyli m.in. klucz kryptograficzny służący do zabezpieczania poprawek. Nie zdobyli jednak kluczy służących do weryfikacji pochodzenia poprawek.
      Intel wydał oświadczenie, w którym zapewnia, że opisany problem nie stanowi zagrożenia, gdyż klucz używany do uwierzytelniania mikrokodu nie jest zapisany w chipie. Zatem napastnik nie może wgrać własnej poprawki.
      Faktem jest, że w tej chwili napastnicy nie mogą wykorzystać podobnej metody do przeprowadzenia zdalnego ataku na procesor Intela. Wydaje się jednak, że ataku można by dokonać, mając fizyczny dostęp do atakowanego procesora. Nawet jednak w takim przypadku wgranie własnego złośliwego kodu przyniosłoby niewielkie korzyści, gdyż kod ten nie przetrwałby restartu komputera.
      Obecnie najbardziej atrakcyjną możliwością wykorzystania opisanego ataku wydaje się hobbistyczne użycie go do wywołania różnego typu zmian w pracy własnego procesora, przeprowadzenie jakiegoś rodzaju jailbreakingu, podobnego do tego, co robiono z urządzeniami Apple'a czy konsolami Sony.
      Atak może posłużyć też specjalistom ds. bezpieczeństwa, który dzięki niemu po raz pierwszy w historii będą mogli dokładnie przeanalizować, w jaki sposób Intel poprawia błędy w swoim mikrokodzie lub też samodzielnie wyszukiwać takie błędy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W Europie zatwierdzono właśnie nowy test na obecność przeciwciał koronawirusa SARS-CoV-2. Jego skuteczność wynosi 99%. Test pozwala na stwierdzenie, czy już zetknęliśmy się z wirusem. Producent testu, brytyjska firma Abbott twierdzi, że do końca maja dostarczy milionów testów.
      Profesor Simon Clarke z University of Reading mówi, że pojawienie się powszechnie dostępnego wiarygodnego testu to znaczące wydarzenie. Ten test pozwoli stwierdzić, czy już się zetknęliśmy z koronawirusem i czy pojawiła się reakcja immunologiczna naszego organizmu. Nie powie nam natomiast, czy jesteśmy odporni na zarażenie. Posiadanie przeciwciał nie gwarantuje odporności. Może ją zapewniać, ale tego nie wiemy.
      Z wcześniejszych doświadczeń z koronawirusami wiemy, że po infekcji niektórymi z nich zyskujemy odporność na bardzo krótki czas. Jako, że SARS-CoV-2 to nowy wirus, nie wiemy, na jak długo zyskujemy na niego odporność.
      Nowy test wykrywa proteinę IgG, którą nasz organizm wytwarza po infekcji koronawirusem. Proteina może pozostawać w organizmie przez miesiące, a nawet lata.
      Producent testu informuje, że przetestował jego czułość na 73 pacjentach chorujących na COVID-19, u których pierwsze objawy choroby wystąpiły 14 dni przed wykonaniem testu. Okazało się, że czułość testu (czyli jego zdolność do prawidłowego wykrywania obecności przeciwciał), wynosi ponad 99%. Co równie istotne, swoistość testu (czyli zdolność do wykrywania braku przeciwciał), była badana na 1070 próbkach i wyniosła również ponad 99%.
      Nowy test pozwoli stwierdzić, ile osób w rzeczywistości chorowało na COVID-19, a tym samym pozwoli określić tempo rozprzestrzeniania się epidemii i śmiertelność nowej choroby.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Chcielibyście wiedzieć, jaka kombinacja antybiotyków najlepiej zadziała na konkretnego pacjenta? I znaleźć ją w 12, a może nawet w 6 godzin, na miejscu? A może marzy się wam przeszukiwanie tysięcy próbek naraz w poszukiwaniu swoistych przeciwciał? To wszystko umożliwia nowy chip stworzony przez naukowców z IChF PAN. Jest tani, szybki i wiarygodny. Może zastąpić szybkie testy immunochromatograficzne i daje pacjentom większe szanse na pokonanie zakażenia.
      Nowe narzędzie diagnostyczne tworzy zespół pod kierunkiem prof. Piotra Garsteckiego. W pracy opublikowanej w Micromachines badacze wykazali, że połączenie kilku różnych, prostych metod pozwala stworzyć przyjazny użytkownikom zestaw do badania wrażliwości bakterii na antybiotyki. Nowy chip wykorzystuje mniej odczynników i antybiotyków niż standardowy antybiogram na agarowej pożywce, a jego użycie jest tak proste jak Etestu. Użytkownik może też wybrać sposób wizualizacji wyników, np. wykorzystując metaboliczne wskaźniki obecności bakterii, barwniki fluorescencyjne albo efekt kolorymetryczny.
      Chcieliśmy zbadać antybiotykowrażliwość najprościej, jak tylko się da, nie tylko dla pojedynczej substancji bakteriobójczej, ale także dla ich kombinacji albo w różnych warunkach - wyjaśnia dr Ladislav Derzsi, jeden z autorów pracy nadzorujący projekt. By stworzyć nasz chip, połączyliśmy kilka rzeczy odkrytych zupełnie niezależnie. Wykorzystaliśmy np. standardowe techniki fotolitografii i litografii tworzyw sztucznych, powszechnie używane do produkcji tzw. laboratoriów chipowych (LOC), i połączyliśmy je z techniką druku bezkontaktowego na specjalnie dla nas zaprojektowanej maszynie. Dzięki połączeniu tych metod naukowcy są w stanie precyzyjnie zakraplać mikroskopijne ilości dowolnej cieczy w mikrodołki chipu na podobnej zasadzie, jak działają drukarki atramentowe lub laserowe. W prezentowanym badaniu zakraplane były roztwory antybiotyków w różnym stężeniu i różnych kombinacjach. Drukarki mają maleńkie dysze i wykorzystując siły piezoelektryczne, potrafią precyzyjnie dostarczać w żądany punkt określoną objętość atramentu: nanolitry, pikolitry, ba, nawet femtolitry - mówi dr Derzsi. My robimy podobnie, tyle że zamiast atramentu dostarczamy antybiotyki i nie na papier, lecz do mikrodołków z plastycznego elastomeru. Rozpuszczalnik, czyli woda, odparowuje, a to, co zostaje, to mikroskopijna dawka antybiotyku. W opisywanym badaniu mikrodołki były stosunkowo duże, miały 1 mm średnicy i pojemność ok. 0,67 mikrolitra. Na każdym chipie umieściliśmy 1024 takie celki. To o rząd wielkości więcej niż na standardowych płytkach, które mają 96 dołków i to mimo że nasza konstrukcja jest o połowę mniejsza. Co więcej, zmniejszając indywidualne rozmiary każdej celki, liczbę mikrodołków można zwiększyć nawet do 10000 na standardowych rozmiarów chip - dodaje naukowiec.
      By ułatwić korzystanie z nowej metody, badacze owijają chipy taśmą polimerową, by odciąć dostęp powietrza, a następnie poddają je działaniu próżni. W ten sposób sprzęt jest dostarczany do końcowego użytkownika w postaci sterylnej, w podciśnieniu. W wersji komercyjnej zapewne dodatkowo pakowalibyśmy chipy próżniowo tak, jak to się robi z żywnością - wyjaśnia dr Derzsi. Użytkownik musi tylko odpakować płytkę, wprowadzić roztwór bakterii zwykłą, dostępną na rynku pipetą, a potem dodać niewielką ilość oleju, który rozdziela dołki i pomaga uniknąć ich krzyżowego skażenia. Później trzeba już tylko włożyć płytkę do cieplarki i... czekać na wynik. Po zadanym czasie można odczytać, jaka kombinacja antybiotyków i w jakich stężeniach działa najlepiej; innymi słowy, zobaczyć, gdzie bakterie rosną niechętnie lub wcale.
      Wielką zaletą nowego systemu diagnostycznego jest jego elastyczność. Można wytwarzać sterylne zestawy pod dyktando odbiorcy, z różnymi antybiotykami w różnych kombinacjach. My badaliśmy na jednej płytce 6 pojedynczych antybiotyków w ośmiu różnych stężeniach i –  dla zwiększenia precyzji – w ośmiu powtórzeniach. Testowaliśmy też ich kombinacje, umieszczając w jednym mikrodołku po dwa z sześciu badanych antybiotyków i sprawdzając ich działanie w szeregu powtórzeń. Można zresztą badać połączenia wielu antybiotyków, inhibitorów i substancji pomocniczych, wstrzykując je do jednej celki w zadanych przez odbiorcę kombinacjach - mówi dr Derzsi - ale zwykle lekarze nie podają pacjentowi więcej niż dwóch, by nie przeciążać jego organizmu. Dzięki naszej metodzie mogą pobrać od chorego próbkę i sprawdzić, który antybiotyk lub jakie ich połączenie zadziała optymalnie w tym konkretnym przypadku, czyli zidywidualizować leczenie, zamiast polegać na statystycznych uogólnieniach. A przecież każdy z nas reaguje na terapię nieco inaczej, nawet jeśli chorobę wywołały te same mikroby. Chodzi o mikroflorę, indywidualną zmienność metabolizmu i wiele innych czynników. Można zatem powiedzieć, że opracowana w IChF PAN metoda to krok przybliżający nas w stronę medycyny spersonalizowanej. Z drugiej strony, to wielka pomoc nie tylko dla klinicystów, ale i dla badaczy próbujących znaleźć nowe, nieoczywiste połączenia antybiotykowe, które działałyby lepiej od tych powszechnie znanych.
      Choć praca zespołu prof. Garsteckiego skupiała się na antybiotykowrażliwości bakterii, sama metoda ma potencjał, by po wprowadzeniu pewnych zmian można ją było wykorzystywać także np. do identyfikacji swoistych genów albo przeciwciał. Zwłaszcza że byłoby to ekonomiczne. Pojedyncza płytka nie powinna kosztować więcej niż 5 euro. Metody mikrofluidyczne mają jeszcze jedną zaletę: poszukując nowych leków, naukowcy często mają do dyspozycji bardzo ograniczoną liczbę potencjalnie leczniczych substancji. Dzięki drukowi bezkontaktowemu mogą przetestować więcej różnych stężeń i kombinacji takich leków in spe, zanim zabraknie im substratu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy opracowali czuły i swoisty test z krwi, który pomaga wykryć ponad 50 typów nowotworów. Wyniki badań ukazały się w piśmie Annals of Oncology.
      Test opracowany przez firmę GRAIL wykorzystuje całogenomowe sekwencjonowanie bisulfitowe (ang. whole genome shotgun bisulfite sequencing, WGSBS) do określenia wzorca metylacji. W komórkach nowotworowych jest on często wyraźnie inny niż w prawidłowych komórkach. Gdy komórki nowotworowe obumierają, ich DNA z grupami metylowymi dostaje się do krwiobiegu. To właśnie pozakomórkowe DNA (ang. cell-free DNA, cfDNA) z osocza jest analizowane przez nowy test.
      Nasze wcześniejsze badania wykazały, że testy oparte na metylacji dają przy wykrywaniu licznych form nowotworów w próbkach krwi lepsze wyniki niż tradycyjne metody sekwencjonowania DNA. Wyniki nowego studium demonstrują, że takie testy są wykonalną metodą skryningu ludzi pod kątem szerokiej gamy nowotworów - przekonuje dr Geoffrey Oxnard z Dana-Farber Cancer Institute.
      Podczas studium naukowcy pracujący pod przewodnictwem specjalistów z Dana-Farber i Mayo Clinic wykorzystali test do analizy pozakomórkowego DNA z 6689 próbek krwi (2482 pochodziły od osób z nowotworem, a 4207 od osób bez nowotworu). Próbki od pacjentów z nowotworem reprezentowały ponad 50 typów nowotworów, w tym raka piersi, trzustki, jajnika czy jelita grubego, a także białaczkę limfocytową i szpiczaka mnogiego.
      W ramach swoich badań naukowcy stworzyli też maszynowy model diagnozujący. Trenowano go na zestawie 4720 próbek, a sprawdzono na osobnym zestawie 1969 próbek. Maszyna uzyskała stałą wysoką swoistość sięgającą 99%. Czułość rozpoznania była uzależniona od tego, czy model miał do rozważenia wszystkie możliwe nowotwory, czy też jedynie określony ich zestaw. W tym drugim przypadku trafność diagnozy była zdecydowanie wyższa.
      Ogólna swoistość testu wynosiła 99,3%. Czułość dla stopni zaawansowania I-III dwunastu wybranych rodzajów nowotworów, odpowiadających za ~63% nowotworowych zgonów w USA rocznie - raka odbytu, raka pęcherza moczowego, raka jelita grubego, raka przełyku, nowotworów głowy i szyi, nowotworów wątroby i przewodów żółciowych, raka płuca, chłoniaka, raka jajnika, raka trzustki, raka żołądka i nowotworów komórek plazmatycznych - wynosiła 67,3%. O ile w grupie tych 12 nowotworów czułość dla stopnia I wynosiła 39%, o tyle dla stopni II, III i IV wynosiła, odpowiednio, 69%, 83% i 92%. Widać więc wzrost czułości wraz ze wzrostem stopnia zaawansowania nowotworu.
      Tkanka pochodzenia (ang. tissue of origin, TOO) była przewidywana w 96% próbek z sygnałem nowotworowym; wśród nich lokalizację TOO trafnie określono w 93%.
      Nasze wyniki pokazują, że opisywane podejście - testowanie cfDNA z krwi - pozwala wykryć szeroką gamę typów nowotworów we wszelkich stopniach zaawansowania, z czułością i swoistością zbliżającą się do poziomu koniecznego do skryningu na poziomie populacyjnym - podsumowuje Oxnard.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...