Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Microsoft bez entuzjazmu o rekordach wydajności IE9

Rekomendowane odpowiedzi

Wszystko wskazuje na to, że Microsoft zaczął w końcu bardziej przykładać się do pracy nad przeglądarką. Koncern poinformował, że silnik skryptowy Chakra Internet Explorera 9 Platform Preview 7 pokonał w teście SunSpider wszystkich konkurentów. Co ciekawe, Dean Hachamovich, odpowiedzialny za rozwój IE, pisze o tym bez zbytniego entuzjazmu.

Pamiętajmy, że wydajność JavaScript to tylko jeden z wielu komponentów definiujących wydajność przeglądarki w świecie rzeczywistym - czytamy. Zadaniem przeglądarek jest praca z prawdziwymi witrynami, a nie z testami - dodaje menedżer Microsoftu. Zwraca przy tym uwagę, że różnice pomiędzy przeglądarkami są liczone przez benchmark w tysięcznych częściach sekundy podczas wielokrotnie powtarzanych operacji po to, by znaleźć jakąkolwiek różnicę.

Hachamovitch nie jest najwyraźniej entuzjastą benchmarków. Podtrzymujemy swoje stanowisko, że testy takie nie są - w najlepszym przypadku - zbyt użyteczne. Nawet po uzyskaniu ostatnich wyników, nie zmieniamy zdania. Skupiamy się na poprawie wydajności w warunkach rzeczywistych. Poprawa wyników w mikrotestach to wynik uboczny tych działań. Skupianie się na nich nie jest pomocne - stwierdza.

Podczas zaprezentowanych testów IE9 ukończył SunSpidera w 216 milisekund. To spory skok w porównaniu z IE8, który potrzebował aż 3746 ms. Spośród obecnych na rynku wersji gorszy od IE9 jest też Firefox 3.6.12 (753 ms), Safari 5.0.2 (328 ms), Chrome 7.0 (262 ms) oraz Opera 10.62 (246 ms).

Wśród wersji rozwojowych różnice są znacznie mniejsze. Najsłabiej wypada Firefox 4.0 Beta 7 (277 ms). Następna jest Opera 11 Alpha (242 ms) oraz Chrome 8.0 Beta (233 ms).

Hachamovitch pytany przez internautów o to, w jaki sposób dokonano tak znaczącego przyspieszenia silnika w porównaniu z IE8 poinformował o funkcjach eliminacji martwego kodu, które pozwalają silnikowi Chakra na jego pomijanie. Ponadto zauważył, że na witrynach internetowych praktycznie nie występuje kod obecny w benchmarkach, dlatego też ich wyniki nie mają praktycznie żadnego znaczenia dla oceny rzeczywistej wydajności przeglądarki.

Menedżer obiecał też, że w przyszłych wpisach zdradzi nieco więcej szczegółów dotyczących metod optymalizacji Chakry.

Odesłał też zainteresowanych do witrnyn IE Test Drive, na której znajdują się testy pokazujące wydajność przeglądarki podczas pracy z prawdziwymi witrynami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nic dziwnego, że nie ma entuzjazmu, skoro już wykryto jak działają "optymalizacje" w IE9 - one omijają pokaźny kawałek testów Sunspidera. Dałem cudzysłów, bo teoretycznie są to prawidłowe optymalizacje (tzn. usuwanie martwego kodu), tyle że działają one tylko i wyłącznie podczas uruchamiania tego właśnie testu. Inaczej mówiąc, jeśli uruchomimy każdy inny skrypt, nawet analogiczny do Sunspidera, to optymalizacje pozostaną nieaktywne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli to prawda, to przypomina to sytuację ATI i nVIDII, gdy okazało się, że manipulują poprzez sterowniki wynikami testów 3DMark poprzez pogarszanie jakości obrazu celem osiągnięcia lepszego wyniku...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ale 3DMark to test z realną grafiką który ma faktyczne odzwierciedlenie w rzeczywistości gier, natomiast testy java skryptu wykonujące tysiące iteracji, czy dokonujące dziwnych obliczeń to z założenia bzdury.

 

99% java skryptu na stronach to przechwycenie zdarzeń w przeglądarce "click, focus, mouseover itd.." i wykonanie prostej funkcji po tej akcji. Najbardziej zaawansowane to pokazanie/ukrycie jakiegoś elementu, sprawdzenie poprawności formularza czy po kliknięciu doładowanie strony z serwera (ajax) Nikt przy zdrowych zmysłach nie pisze programów w java skrypcie, bo to nie do tego służy...

 

Więc to czy jakaś funkcja zostanie wykonana w 0,001, sek czy 0,05 sek nie ma znaczenia, więcej zajmie nam przesunięcie kursora po kliknięciu. Tak że rozumiem podejście Hachamovitch'a. Są inne ważniejsze sprawy do roboty niż optymalizacja kodu pod nierealne testy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nikt przy zdrowych zmysłach nie pisze programów w java skrypcie, bo to nie do tego służy...

 

Z całym szacunkiem, ale zapominasz chyba o HTML5 i canvas.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dokładnie, HTML5 otwiera przed JavaScriptem nowe możliwości, sam miałem już przyjemność napisać skrypt w Processing.js z którym radzi sobie tylko Chrome/Opera/Safari, Firefoks czasem przestaje odpowiadać a na IE nawet nie próbowałem testować. I napisałem go z nadzieją, że w przyszłości się to zmieni. Marginalizacja ajax do (jednego, jak wynika z kontekstu) doładowania treści na stronie, to również duże niedomówienie. Ajax jest wykorzystywany jest coraz częściej i przesyła się nim coraz większe ilości danych. Kolejna sprawa - popularyzacja frameworków pokroju JQuery, a wraz z nimi wzrost ilości animacji na stronach. Nie można bagatelizować obsługi JavaScript w przeglądarkach, moim zdaniem to jeden z bardziej przyszłościowych języków i z niecierpliwością czekam na boom związany właśnie z wprowadzaniem HTML5. Śmiem twierdzić, że w niedługiej przyszłości zacznie się powszechnie rozdzielać funkcje frontend developerów na tych którzy tną grafikę i stylują, oraz tych którzy piszą w JavaScripcie. Mam nadzieję, że się nie przeliczę:).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do naszych routerów wifi zrobiłem bibliotekę, która rysuje na żywo wykresy ruchu, zajętości procesora, temperatury, napięcia, poziomu sygnału radiowego, itp. Jest w całości w JS, do działania wymaga przeglądarki zgodnej z HTML4 i nie potrzebuje żadnych pluginów. Chodzi na IE od wersji 6 i wszystkich nowych przeglądarkach (Opera, Safari, Konqueror itp). W ramach testów puściliśmy to na kilka dni i nie wysypało się. Intensywnie korzysta z DOM-a, więc o wydajności decyduje nie tylko silnik JS, ale też tempo operacji na obiektach znajdujących się w pamięci. Jeśli chodzi o prędkość takiego wynalazku, najlepiej wypada obecny Chrome, najgorzej IE. Natomiast z dużą liczbą obiektów najlepiej radzi sobie Opera (jest w stanie wytworzyć 65 tysięcy DIV-ów i nie zatkać się), najgorzej znowu IE.

 

O - tak to wygląda: 596cd2890d.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Stan serca łatwo sprawdzić za pomocą prostego testu chodzenia po schodach, dowiadujemy się z badań, których wyniki przedstawiono podczas kongresu naukowego Europejskiego Towarzystwa Kardiologicznego (ESC). Doktor Jesús Peteiro, kardiolog ze Szpitala Uniwersyteckiego w A Coruña w Hiszpanii mówi, że jeśli wspięcie się na cztery zestawy schodów, składające się w sumie z 60 stopni, zajmuje Ci więcej niż 1,5 minuty, to stan twojego serca nie jest optymalny i warto zgłosić się do lekarza.
      Peteiro prowadził badania, których celem było sprawdzenie związku pomiędzy codziennymi czynnościami, takimi jak wchodzenie po schodach, a wynikami testów laboratoryjnych badających stan serca. Chcieliśmy znaleźć prostą i tanią metodę oceny stanu zdrowia serca. To ułatwiłoby lekarzom wychwycić pacjentów, których trzeba skierować na dalsze badania, mówi uczony.
      W badaniach wzięło udział 165 pacjentów skierowanych na próby wysiłkowe, o których wiadomo było, że albo cierpią na chorobę niedokrwienną serca, albo występują u nich objawy wskazujące na to schorzenie.
      Uczestnicy badań spacerowali bądź biegali na bieżni. Tempo stopniowo zwiększano, a ćwiczenie prowadzono do utraty tchu. Oceniano w ten sposób ich ekwiwalent metaboliczny (MET). Następnie po odpoczynku trwającym 15–20 minut badani mieli w szybkim tempie bez zatrzymywania się wejść na cztery zestawy schodów (w sumie 60 stopni). Nie mogli przy tym biec. Mierzono czas przejścia schodów.
      Następnie naukowcy analizowali związek pomiędzy MET a czasem wejścia na schody. Okazało się, że osoby, które pokonywały schody w czasie krótszym niż 40–45 sekund to osoby, których MET wynosił powyżej 9–10. Z wcześniejszych badań wiemy zaś, że uzyskanie wyniku 10MET jest powiązane z niskim ryzykiem zgonu, wynoszącym nie więcej niż 1% w ciągu roku i nie więcej niż 10% w ciągu 10 lat. W kolei osoby, które na przebycie wspomnianych schodów potrzebowały co najmniej 1,5 minuty, to ludzie, którzy osiągnęli wynik niższy niż 8MET, a to oznacza, że w ich przypadku ryzyko zgonu w ciągu roku wynosi 2–4%, a w ciągu 10 lat jest to 30%.
      Co więcej, podczas testu wysiłkowego na bieżni naukowcy obrazowali na bieżąco serca badanych. Również i te wyniki porównano z „testem schodów” i okazało się, że 58% osób, które na pokonanie schodów potrzebowały więcej niż 1,5 minuty miało nieprawidłowo działające serce. Podobne zjawisko zauważono u 32% osób, które potrzebowały mniej niż 1,5 minuty na wejście po schodach.
      Peteiro mówi, że uzyskane wyniki można przełożyć na całą populację, nie tylko na osoby, z niepokojącymi objawami ze strony serca. Co więcej, w przypadku osób bez objawów, ryzyko zgonu jest mniejsze niż u osób z objawami.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed dwoma laty Microsoft rozpoczął interesujący eksperyment. Firma zatopiła u wybrzeża Orkadów centrum bazodanowe. Teraz wydobyto je z dna, a eksperci przystąpili do badań dotyczących jego wydajności i zużycia energii. Już pierwsze oceny przyniosły bardzo dobre wiadomości. W upakowanym serwerami stalowym cylindrze dochodzi do mniejszej liczby awarii niż w konwencjonalnym centrum bazodanowym.
      Okazało się, że od maja 2018 roku zawiodło jedynie 8 a 855 serwerów znajdujących się w cylindrze. Liczba awarii w podwodnym centrum bazodanowym jest 8-krotnie mniejsza niż w standardowym centrum na lądzie, mówi Ben Cutler, który stał na czele eksperymentu nazwanego Project Natick. Eksperci spekulują, że znacznie mniejszy odsetek awarii wynika z faktu, że ludzie nie mieli bezpośredniego dostępu do serwerów, a w cylindrze znajdował się azot, a nie tlen, jak ma to miejsce w lądowych centrach bazodanowych. Myślimy, że chodzi tutaj o atmosferę z azotu, która zmniejsza korozję i jest chłodna oraz o to, że nie ma tam grzebiących w sprzęcie ludzi, mówi Cutler.
      Celem Project Natic było z jednej strony sprawdzenie, czy komercyjnie uzasadnione byłoby tworzenie niewielkich podwodnych centrów bazodanowych, która miałyby pracować niezbyt długo. Z drugiej strony chciano sprawdzić kwestie efektywności energetycznej chmur obliczeniowych. Centra bazodanowe i chmury obliczeniowe stają się coraz większe i zużywają coraz więcej energii. Zużycie to jest kolosalne. Dość wspomnieć, że miliard odtworzeń klipu do utworu „Despacito” wiązało się ze zużyciem przez oglądających takiej ilości energii, jaką w ciągu roku zużywa 40 000 amerykańskich gospodarstw domowych. W skali całego świata sieci komputerowe i centra bazodanowe zużywają kolosalne ilości energii.
      Na Orkadach energia elektryczna pochodzi z wiatru i energii słonecznej. Dlatego to właśnie je Microsoft wybrał jako miejsce eksperymentu. Mimo tego, podwodne centrum bazodanowe nie miało żadnych problemów z zasilaniem. Wszystko działało bardzo dobrze korzystając ze źródeł energii, które w przypadku centrów bazodanowych na lądzie uważane są za niestabilne, mówi jeden z techników Project Natick, Spencer Fowers. Mamy nadzieję, że gdy wszystko przeanalizujemy, okaże się, że nie potrzebujemy obudowywać centrów bazodanowych całą potężną infrastrukturą, której celem jest zapewnienie stabilnych dostaw energii.
      Umieszczanie centrów bazodanowych pod wodą może mieć liczne zalety. Oprócz już wspomnianych, takie centra mogą być interesującą alternatywą dla firm, które narażone są na katastrofy naturalne czy ataki terrorystyczne. Możesz mieć centrum bazodanowe w bardziej bezpiecznym miejscu bez potrzeby inwestowania w całą infrastrukturę czy budynki. To rozwiązanie elastyczne i tanie, mówi konsultant projektu, David Ross. A Ben Cutler dodaje: Sądzimy, że wyszliśmy poza etap eksperymentu naukowego. Teraz pozostaje proste pytanie, czy budujemy pod wodą mniejsze czy większe centrum bazodanowe.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft ponownie będzie dostarczał użytkownikom Windows 10 poprawki niezwiązane z bezpieczeństwem. Jak wcześniej informowaliśmy, w związku z pandemią koronawirusa koncern zmienił sposób pracy i od maja dostarczał wyłącznie poprawki związane z bezpieczeństwem.
      Chris Morrissey z Microsoftu ogłosił na firmowym blogu, że od lipca dostarczane będą wszystkie poprawki dla Windows 10 oraz Windows Server dla wersji 1809 i nowszych. Kalendarz ich publikacji będzie taki, jak wcześniej, zatem dostęp do nich zyskamy w Update Tuesday. Koncern zapowiada też pewne zmiany, które mają na celu uproszczenie procesu aktualizacji.
      Zmiany takie obejmą nazewnictwo poprawek oraz sposób dostarczania poprawek do testów dla firm i organizacji. Zmian mogą się też spodziewać osoby i organizacja biorące udział w Windows Insider Program oraz Windows Insider Program for Business.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa hakerska Shiny Hunters włamała się na GitHub-owe konto Microsoftu, skąd ukradła 500 gigabajtów danych z prywatnych repozytoriów technologicznego giganta. Dane te zostały następnie upublicznione na jednym z hakerskich forów. Nic nie wskazuje na to, by zawierały one jakieś poufne czy krytyczne informacje.
      Ataku dokonali ci sami przestępcy, którzy niedawno ukradli dane 91 milionów użytkowników największej indonezyjskiej platformy e-commerce Tokopedii i sprzedali je za 5000 USD. Jak mówią eksperci, Shiny Hunters zmienili w ostatnim czasie taktykę.
      Na dowód dokonania ataku na konto Microsoftu hakerzy dostarczyli dziennikarzom zrzut ekranowy, na którym widzimy listę prywatnych plików developerów Microsoftu. Początkowo przestępcy planowali sprzedać te dane, ale w końcu zdecydowali się udostępnić je publicznie.
      Jako, że w ukradzionych danych znajduje się m.in. tekst i komentarze w języku chińskim, niektórzy powątpiewają, czy rzeczywiście są to pliki ukradzione Microsoftowi. Jednak, jak zapewniają redaktorzy witryny Hack Read, ukradziono rzeczywiście pliki giganta z Redmond. Przedstawiciele Shiny Hunters informują, że nie mają już dostępu do konta, które okradli. Microsoft może zatem przeprowadzić śledztwo i poinformować swoich klientów o ewentualnych konsekwencjach ataku. Sama firma nie odniosła się jeszcze do informacji o włamaniu.
      GitHub to niezwykle popularna platforma developerska używana do kontroli wersji, z której korzysta 40 milionów programistów z całego świata. W październiku 2018 roku została ona zakupiona przez Microsoft za kwotę 7,5 miliarda dolarów.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...