Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Microsoft chyba postanowił nadrobić stracony czas i poważnie zabrać się za rywalizację na rynku przeglądarek internetowych. Od kilku dni przedstawiciele koncernu coraz częściej wspominają o Internet Explorerze 9, a Ray Ozzie, główny architekt oprogramowania, zapowiedział, że IE9 będzie najlepszą przeglądarką dla Windows. Ma on być nowoczesnym, zgodnym ze standardami programem.

Powoli odkrywane są kolejne szczegóły dotyczące nowej przeglądarki Microsoftu. Wiadomo już, że wydajnością przetwarzania JavaScript ma ona co najmniej dorównywać przeglądarkom Chrome i Safari. Z kolei Steven Sinofsky, który kieruje wydziałem odpowiedzialnym za Windows i Windows Live zdradził, że IE9 będzie wykorzystywał GPU do renderowania tekstu i grafiki. Ponadto do przyspieszenia CSS, DHTML i JavaScriptu zostanie użyty interfejs Direct2D z DirectX. Podczas przeprowadzonej demonstracji Sinofsky, używając Bing Maps, pokazał, że opisywane rozwiązania przyszpieszają wyświetlanie obrazów z 14 do 60 klatek na sekundę.

IE9  ma również wspierać HTML 5 oraz CSS3.

Nie wiadomo jednak, kiedy przeglądarka trafi na rynek. Internet Explorer 8 pojawił się zaledwie 8 miesięcy temu, a więc na IE9 zapewne przyjdzie nam jeszcze poczekać. Tymczasem Google i Mozilla bez przerwy unowocześniają swoje produkty, więc Microsoft nie może liczyć na to, że w łatwy sposób chociażby zatrzyma rynkowy spadek udziałów IE.

Share this post


Link to post
Share on other sites

IE9 może w końcu przejdzie acid3 przynajmniej do połowy ;).. chociaż to będzie marny wynik jak na 2012 rok :P

 

Microsoft powinien trzymać się systemów operacyjnych zamiast rozganiać developerów po setce projektów, z których większość przegrywa z opensourcowymi odpowiednikami nawet pod względem samej jakości.

 

Puki MS nie był podzielony powstał XP czy win98 - na swoje czasy flagowe produkty..  Dziś nawet windows 7 nie przywróci im dobrego zdania wśród klientów. Marny produkt za wysoką cenę.

Share this post


Link to post
Share on other sites

Ja mam do Microsoftu żal o jedyną, jedną rzecz - gry pokroju saper, kierki, soliter. Dlaczego programy, które działały jeszcze na 386 nagle do działania wymagają posiadania wydajnego akceleratora i zajmują więcej miejsca niż wcześniej cały system?

W skrócie obawiam się, że "Z kolei Steven Sinofsky, który kieruje wydziałem odpowiedzialnym za Windows i Windows Live zdradził, że IE9 będzie wykorzystywał GPU do renderowania tekstu i grafiki." będzie oznaczało - "program do tego samego działania co kiedyś będzie wymagał karty GeForce 8600"

Share this post


Link to post
Share on other sites

Nie chciałbym bym im dawać rad, bo pewnie są lepsi ode mnie w marketingu albo programowaniu, ale powinni się raczej skupić przede wszystkim na bezpieczeństwie. Nie zauważyłem znaczących opóźnień przy renderowaniu strony, więcej czasu marnuje się na ściągnięcie danych przez sieć. I tak zanim wypuszczą tą przeglądarkę w pełni wspierającą CSS3, to wyjdzie kolejna wersja CSS i nadal będą w tyle. Lepiej żeby poprawili bugi CSS2, bo dzięki nim i ok. 50% rzeszy użytkowników IE muszę rezygnować z pożytecznych rzeczy, które oferuje CSS2 i opierać się jedynie na tym co potrafi IE.

Share this post


Link to post
Share on other sites

Ma on być nowoczesnym, zgodnym ze standardami programem.

 

IE9 może w końcu przejdzie acid3 przynajmniej do połowy ;).. chociaż to będzie marny wynik jak na 2012 rok :P

 

Według blogu http://blogs.msdn.com/ie/archive/2009/11/18/an-early-look-at-ie9-for-developers.aspx jakaś alfa kodu osiąga wynik aż (!) 32 punktów w Acid3 (IE8 jakieś 20). ;D

 

Ciekawe czy będzie korzystał z nowego silnika Gazelle, bo testy JS ma porównywalne.

Share this post


Link to post
Share on other sites

Ray Ozzie, główny architekt oprogramowania, zapowiedział, że IE9 będzie <em>najlepszą przeglądarką dla Windows</em>.

 

juz to widze  ;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Google ujawniło swoją pilnie strzeżoną tajemnicę. Koncern, jako pierwszy dostawca chmury obliczeniowej i – prawdopodobnie – pierwszy wielki właściciel centrów bazodanowych, zdradził ile wody do chłodzenia zużywają jego centra obliczeniowe. Dotychczas szczegóły dotyczące zużycia wody były traktowane jak tajemnica handlowa.
      Firma poinformowała właśnie, że w ubiegłym roku jej centra bazodanowe na całym świecie zużyły 16,3 miliarda litrów wody. Czy to dużo czy mało? Google wyjaśnia, że to tyle, ile zużywanych jest rocznie na utrzymanie 29 pól golfowych na południowym zachodzie USA. To też tyle, ile wynosi roczne domowe zużycie 446 000 Polaków.
      Najwięcej, bo 3 miliardy litrów rocznie zużywa centrum bazodanowe w Council Bluffs w stanie Iowa. Na drugim miejscu, ze zużyciem wynoszącym 2,5 miliarda litrów, znajduje się centrum w Mayes County w Oklahomie. Firma zapowiada, że więcej szczegółów na temat zużycia wody przez jej poszczególne centra bazodanowe na świecie zdradzi w 2023 Environmental Report i kolejnych dorocznych podsumowaniach.
      Wcześniej Google nie podawało informacji dotyczących poszczególnych centrów, obawiając się zdradzenia w ten sposób ich mocy obliczeniowej. Od kiedy jednak zdywersyfikowaliśmy nasze portfolio odnośnie lokalizacji i technologii chłodzenia, zużycie wody w konkretnym miejscu jest w mniejszym stopniu powiązane z mocą obliczeniową, mówi Ben Townsend, odpowiedzialny w Google'u za infrastrukturę i strategię zarządzania wodą.
      Trudno się jednak oprzeć wrażeniu, że Google'a do zmiany strategii zmusił spór pomiędzy gazetą The Oregonian a miastem The Dalles. Dziennikarze chcieli wiedzieć, ile wody zużywają lokalne centra bazodanowe Google'a. Miasto odmówiło, zasłaniając się tajemnicą handlową. Gazeta zwróciła się więc do jednego z prokuratorów okręgowych, który po rozważeniu sprawy stanął po jej stronie i nakazał ujawnienie danych. Miasto, któremu Google obiecało pokrycie kosztów obsługi prawnej, odwołało się od tej decyzji do sądu. Później jednak koncern zmienił zdanie i poprosił władze miasta o zawarcie ugody z gazetą. Po roku przepychanek lokalni mieszkańcy dowiedzieli się, że Google odpowiada za aż 25% zużycia wody w mieście.
      Na podstawie dotychczas ujawnionych przez Google'a danych eksperci obliczają, że efektywność zużycia wody w centrach bazodanowych firmy wynosi 1,1 litra na kilowatogodzinę zużytej energii. To znacznie mniej niż średnia dla całego amerykańskiego przemysłu wynosząca 1,8 l/kWh.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Prawnikom Google'a nie udało się doprowadzić do odrzucenia przez sąd pozwu związanego z nielegalnym gromadzeniem danych użytkowników przez koncern. Sędzia Lucy Koh uznała, że Google nie poinformował użytkowników, iż zbiera ich dane również wtedy, gdy wykorzystują w przeglądarce tryb anonimowy.
      Powodzi domagają się od Google'a i konglomeratu Alphabet co najmniej 5 miliardów dolarów odszkodowania. Twierdzą, że Google potajemnie zbierał dane za pośrednictwem Google Analytics, Google Ad Managera, pluginów oraz innych programów, w tym aplikacji mobilnych. Przedstawiciele Google'a nie skomentowali jeszcze postanowienia sądu. Jednak już wcześniej mówili, że pozew jest bezpodstawny, gdyż za każdym razem, gdy użytkownik uruchamia okno incognito w przeglądarce, jest informowany, że witryny mogą zbierać informacje na temat jego działań.
      Sędzia Koh już wielokrotnie rozstrzygała spory, w które były zaangażowane wielkie koncerny IT. Znana jest ze swojego krytycznego podejścia do tego, w jaki sposób koncerny traktują prywatność użytkowników. Tym razem na decyzję sędzi o zezwoleniu na dalsze prowadzenie procesu przeciwko Google'owi mogła wpłynąć odpowiedź prawników firmy. Gdy sędzia Koh zapytała przedstawicieli Google'a, co koncern robi np. z danymi, które użytkownicy odwiedzający witrynę jej sądu wprowadzają w okienku wyszukiwarki witryny, ci odpowiedzieli, że dane te są przetwarzane zgodnie z zasadami, na jakie zgodzili się administratorzy sądowej witryny.
      Na odpowiedź tę natychmiast zwrócili uwagę prawnicy strony pozywającej. Ich zdaniem podważa ona twierdzenia Google'a, że użytkownicy świadomie zgadzają się na zbieranie i przetwarzanie danych. Wygląda na to, że Google spodziewa się, iż użytkownicy będą w stanie zidentyfikować oraz zrozumieć skrypty i technologie stosowane przez Google'a, gdy nawet prawnicy Google'a, wyposażeni w zaawansowane narzędzia i olbrzymie zasoby, nie są w stanie tego zrobić, stwierdzili.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przed dwoma laty Microsoft rozpoczął interesujący eksperyment. Firma zatopiła u wybrzeża Orkadów centrum bazodanowe. Teraz wydobyto je z dna, a eksperci przystąpili do badań dotyczących jego wydajności i zużycia energii. Już pierwsze oceny przyniosły bardzo dobre wiadomości. W upakowanym serwerami stalowym cylindrze dochodzi do mniejszej liczby awarii niż w konwencjonalnym centrum bazodanowym.
      Okazało się, że od maja 2018 roku zawiodło jedynie 8 a 855 serwerów znajdujących się w cylindrze. Liczba awarii w podwodnym centrum bazodanowym jest 8-krotnie mniejsza niż w standardowym centrum na lądzie, mówi Ben Cutler, który stał na czele eksperymentu nazwanego Project Natick. Eksperci spekulują, że znacznie mniejszy odsetek awarii wynika z faktu, że ludzie nie mieli bezpośredniego dostępu do serwerów, a w cylindrze znajdował się azot, a nie tlen, jak ma to miejsce w lądowych centrach bazodanowych. Myślimy, że chodzi tutaj o atmosferę z azotu, która zmniejsza korozję i jest chłodna oraz o to, że nie ma tam grzebiących w sprzęcie ludzi, mówi Cutler.
      Celem Project Natic było z jednej strony sprawdzenie, czy komercyjnie uzasadnione byłoby tworzenie niewielkich podwodnych centrów bazodanowych, która miałyby pracować niezbyt długo. Z drugiej strony chciano sprawdzić kwestie efektywności energetycznej chmur obliczeniowych. Centra bazodanowe i chmury obliczeniowe stają się coraz większe i zużywają coraz więcej energii. Zużycie to jest kolosalne. Dość wspomnieć, że miliard odtworzeń klipu do utworu „Despacito” wiązało się ze zużyciem przez oglądających takiej ilości energii, jaką w ciągu roku zużywa 40 000 amerykańskich gospodarstw domowych. W skali całego świata sieci komputerowe i centra bazodanowe zużywają kolosalne ilości energii.
      Na Orkadach energia elektryczna pochodzi z wiatru i energii słonecznej. Dlatego to właśnie je Microsoft wybrał jako miejsce eksperymentu. Mimo tego, podwodne centrum bazodanowe nie miało żadnych problemów z zasilaniem. Wszystko działało bardzo dobrze korzystając ze źródeł energii, które w przypadku centrów bazodanowych na lądzie uważane są za niestabilne, mówi jeden z techników Project Natick, Spencer Fowers. Mamy nadzieję, że gdy wszystko przeanalizujemy, okaże się, że nie potrzebujemy obudowywać centrów bazodanowych całą potężną infrastrukturą, której celem jest zapewnienie stabilnych dostaw energii.
      Umieszczanie centrów bazodanowych pod wodą może mieć liczne zalety. Oprócz już wspomnianych, takie centra mogą być interesującą alternatywą dla firm, które narażone są na katastrofy naturalne czy ataki terrorystyczne. Możesz mieć centrum bazodanowe w bardziej bezpiecznym miejscu bez potrzeby inwestowania w całą infrastrukturę czy budynki. To rozwiązanie elastyczne i tanie, mówi konsultant projektu, David Ross. A Ben Cutler dodaje: Sądzimy, że wyszliśmy poza etap eksperymentu naukowego. Teraz pozostaje proste pytanie, czy budujemy pod wodą mniejsze czy większe centrum bazodanowe.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft ponownie będzie dostarczał użytkownikom Windows 10 poprawki niezwiązane z bezpieczeństwem. Jak wcześniej informowaliśmy, w związku z pandemią koronawirusa koncern zmienił sposób pracy i od maja dostarczał wyłącznie poprawki związane z bezpieczeństwem.
      Chris Morrissey z Microsoftu ogłosił na firmowym blogu, że od lipca dostarczane będą wszystkie poprawki dla Windows 10 oraz Windows Server dla wersji 1809 i nowszych. Kalendarz ich publikacji będzie taki, jak wcześniej, zatem dostęp do nich zyskamy w Update Tuesday. Koncern zapowiada też pewne zmiany, które mają na celu uproszczenie procesu aktualizacji.
      Zmiany takie obejmą nazewnictwo poprawek oraz sposób dostarczania poprawek do testów dla firm i organizacji. Zmian mogą się też spodziewać osoby i organizacja biorące udział w Windows Insider Program oraz Windows Insider Program for Business.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...