Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Wiele mówi się o konieczności przestrzegania standardów w Internecie. W założeniu powinny one ułatwiać nam wszystkim życie. Stąd też zwykle duże zainteresowanie towarzyszy wydaniu kolejnych edycji przeglądarek. Wówczas wiele pisze się o tym, czy dana przeglądarka w sposób zgodny ze standardami interpretuje witryny WWW. Podawane są wyniki ACID, który jest najważniejszym testem na rynku przeglądarek.

Jednak większość osób skupiających się na przestrzeganiu standardów przez przeglądarki, nie zadaje sobie prostego pytania. A brzmi ono: Czy jest sens skupiać się tylko na przeglądarkach, pomijając sprawdzenie, czy interpretowane przez nie witryny spełniają standardy?

Postanowiliśmy sprawdzić, jak wygląda przestrzeganie standardów przez najpopularniejsze w Polsce i na świecie witryny internetowe. W tym celu wykorzystaliśmy oficjalny walidator organizacji W3C, którym sprawdziliśmy 200 witryn. Sto z nich to strony cieszące się największą popularnością w światowej Sieci, a 100 - w polskiej. Listę witryn ułożyliśmy na podstawie danych serwisu Alexa.com.

Z powodu występujących błędów wykonanie walidacji było niemożliwe na 6 spośród 100 światowych liderów. Na pozostałych 94 witrynach znaleźliśmy w sumie 13 589 błędów!

Jedynie 9 spośród badanych stron było napisanych bezbłędnie. Są to: MSN.com, Wikipedia.org, Wordpress.com, Yandex.ru, Skyrock.com, BBC.co.uk, Craiglist.org, Free.fr oraz Yahoo.com.cn.

Tylko 7 witryn mogło pochwalić się nie więcej niż 9 błędami: Live.com (4), Youporn.com (8), Odnoklassniki.ru (1), Mininova.org (2), Naver.com (8), Apple.com (1) i Metroflog (1).

Znacznie więcej było takich, na których walidator znalazł od 100 do 500 błędów. Tutaj trzeba wymienić: YouTube.com (104), Microsoft.com (177), eBay.com (230), Hi5.com (292), Mail.ru (165), Imdb.com (186), Go.com (164), RedTube.com (261), eBay.de (273), Espn.go.com (494), Livedoor.com (243), Rediff.com (163), Veoh.com (436), Deviantart.com (218), Goo.ne.jp (153), eBay.co.uk (195), Mediafire.com (200), Download.com (263), NYTimes.com (328) i Wretch.cc (256).

Chociaż trudno w to uwierzyć, są i takie witryny, których autorzy zdołali na stronie głównej popełnić więcej niż 500 błędów. Znajdziemy tutaj: AOL.com (858), Perfspot.com (578), Gamespot.com (563). To jednak nie koniec. Absolutnymi zwycięzcami w rankingu liczby błędów są bowiem: Amazon.com (1355), 163.com (1405), Uol.com.br (1007).

Nie lepiej wygląda sytuacja wśród witryn najpopularniejszych w Polsce, co nie znaczy, że polskich. Walidacja była niemożliwa na trzech witrynach. W sumie na pozostałych 97 występuje 9087 błędów.

Bezbłędnie napisane witryny to: WP.pl, Wikipedia.org, OtoMoto.pl, MSN.com, FilmWeb.pl, Gratka.pl, Money.pl, Nazwa.pl, DarkWarez.pl i Wordpress.com.

Są też witryny, których twórcy dołożyli starań by nie popełnić więcej niż 9 błędów: Nasza-klasa.pl (5), Interia.pl (6), Orange.pl (4), Chomikuj.pl (5), WyspaGier.pl (4), Home.pl (1), Live.com (4), mBank.com.pl (4), YouPorn.com (8), Wykop.pl (4), PKT.pl (9).

Jednak, jak się możemy domyślić, znowu więcej jest witryn, na których występuje 100-500 błędów: Allegro.pl (243), YouTube.com (104), Fotka.pl (190), Wrzuta.pl (215), Gazeta.pl (488), Pudelek.pl (570), RedTube.com (261), Microsoft.com (177), Torrenty.org (120), Fora.pl (155), Blox.pl (116), Republika.pl (363), JoeMonster.org (311), Gumtree.pl (104), IDG.pl (170), nocoty.pl (114), odsiebie.com (130), Wyborcza.pl (144), Kafeteria.pl (228), Deviantart.com (218), MojaGeneracja.pl (176), Rozklad-PKP.pl (189), Neostrada.pl (208), Wizaz.pl (242).

Ponad 500 błędów popełnili twórcy witryn: Pudelek.pl (570) i SFD.pl (534). Najgorzej jednak wypada strona DobreProgramy.pl z 1117 błędami znalezionymi przez walidator.

Oczywiście testy przeprowadzone za kilka dni mogą dać odmienne wyniki, gdyż na wymienionych powyżej witrynach bez przerwy jest coś zmieniane.

Warto więc zadać sobie pytanie, czy jest sens, by twórcy przeglądarek starali się spełniać standardy, podczas gdy powszechnym zjawiskiem jest nieprzestrzeganie ich przez twórców witryn.

Share this post


Link to post
Share on other sites

Ja zawsze pisze strony zgodnie z standardami w3c, ale prawda jest taka, że czasami jakaś przeglądarka (ie, ff albo opera, bo tych używam do sprawdzania wyświetlania strony) nie zobaczy jakiegoś marginesu, czegoś innego nie zrobi albo co najdziwniejsze zrobi coś czego nie ma, ale zawsze można to jakoś pokonać.

Share this post


Link to post
Share on other sites

Zawsze można to jakoś pokonać ale zazwyczaj robi się to kosztem właśnie jednego błędu w teście W3C więcej. Ja zawsze zwracam uwagę na ilość błędów i najczęściej udaje mi się doprowadzić do bezbłędności no ale... Miałem sytuację w której klient zażyczył sobie ten kawałek tekstu w tym miejscu. IE nie widzi marginesu. No to tabele, w ff strona się posypała. Można by tak w kółko albo kroić stronę od początku, ale użyłem tagu którego nie powinno się używać w html4strict i strona wyświetlana była poprawnie ale W3C odnotował jeden błąd. Gdyby nie konflikt pomiędzy przeglądarkami wszystko byłoby ok.

 

Z tego co pamiętam M$ wymyślił parę swoich własnych tagów html'owych które dodał do swojej przeglądarki podczas gdy inne ich nie obsługiwały... Gdyby nie W3C i inne organizacje zajmujące się standaryzacją każda przeglądarka obsługiwałaby swoje tagi i do każdej strony potrzebowalibyśmy innej przeglądarki. Właśnie po to są te standardy. A to że niektórzy twórcy portali nie zwracają uwagi na walidator to już ich sprawa.

 

O proszę: http://validator.w3.org/check?uri=http%3A%2F%2Fkopalniawiedzy.pl%2F ;]

Share this post


Link to post
Share on other sites

Za taki stan rzeczy jest odpowiedzialny Internet Explorer, ktory jest napopularniejsza przegladarka i zawsze mial problemy z przestrzeganiem standardow. Jesli napisze sie strone zgodna ze standardami W3 to czesc elementow na IE nie wyswietli sie prawidlowo. Strony natomiast sa pisane pod IE, zeby wiekszosc ludzi miala mozliwosc ich odczytu. Bledne kolo.

Wlasnie dlatego tak goraco sie nawoluje o przechodzenie na Firefoksa, Opere, Chrome'a czy Safari. Sa to dobre, bezpieczne przegladarki, ktore o wiele lepiej radza sobie z przestrzeganiem standardow. Ich stosowanie sprawi, ze siec stanie sie bardziej uniwersalna. Wtedy wszystkie strony beda tworzone w zgodzie ze standardmi.

Share this post


Link to post
Share on other sites

ta z IE są największe problemy, ale cóż poradzić. obecnie kończę jedną stronę i na razie trzyma standardy :)

Share this post


Link to post
Share on other sites
Warto więc zadać sobie pytanie, czy jest sens, by twórcy przeglądarek starali się spełniać standardy,

Oczywiście, że jest sens, inaczej znów zrobi sią chaos i samowolka, jak w czasach walki IE z Netscape. Tyle że dziś Internet i jego prawidłowe działanie jest o wiele ważniejsze.

Share this post


Link to post
Share on other sites

Pozostaje pytanie - czy trzymać się ściśle standardów i nie zwracać uwagi na przeglądarki, czy pisać kod trzymając się standardów i ewentualnie robiąc świadome odstępstwa, żeby strona działała w praktyce i była zaaprobowana przez klienta? Ja mam zawsze jeden poważny problem - przezroczystość. Kończy się na użyciu czterech różnych właściwości (w tym Microsoftowskich filtrów, moz-opacity, khtml-opacity dla konquerora i wkońcu, poprawnego opacity). Oczywiście, że standardy są potrzebne. Ale postęp również. Którz inny za nim stoi jak nie przeglądarki, które łamią standardy?

Share this post


Link to post
Share on other sites

Wiesz, twoje ostatnie zdanie to – nie obraź się – bzdura. Przeglądarki łamiące standardy włąśnie hamują postęp. Gdyby nie samowolki IE i spowodowane przez niego zacofanie, to melibyśmy o wiele lepszą powszechną implementację standardów i więcej możliwośći kreowania stron — bo standardy wykraczają już daleko poza to, co oferują nawet najlepsze w ich implementacji przeglądarki. A nawet tego, co już można używać, nie używa się, właśnie przez hamulcowych, łamiących standardy.

Share this post


Link to post
Share on other sites

"A moim zdanie dobreprogramy idą z duchem czasu. 22 błędy, 2 ostrzeżenia wystarczy wybrać walidację jako HTML 5

 

link "

Share this post


Link to post
Share on other sites
Najgorzej jednak wypada strona DobreProgramy.pl z 1117 błędami znalezionymi przez walidator.

 

A może Portal KopalniaWiedzy.pl poszperałby na forum DP i dowiedział się, że już praktycznie ukończona jest nowa wersja "dobrych" (przeprowadzane są zamknięte beta-testy), która waliduje się poprawnie?

 

To naturalne, że silnik "dobrych" ma już swoje lata (chyba to rocznik 2003), a o tym że w przygotowaniu jest nowa wersja także wiadomo już od ładnych paru lat.

 

Dla porównania inne, nowe dzieła twórców "dobrych":

www.techit.pl

www.gamikaze.pl

 

Edit:

Data wprowadzenia aktualnej wersji to 14.02.2004, dowód:

http://dobreprogramy.pl/index.php?dz=15&n=1073&Metamorfoza+i+konkurs...

Tak więc obecny kod liczy sobie już prawie 4 lata.

Share this post


Link to post
Share on other sites

Ale co z tego? Będzie sens oceniać, jak nowa wersja ujrzy światło dzienne. Póki jest stara i jest wadliwa, nie da się ukryć, że ma tyle błędów, ile ma.

Share this post


Link to post
Share on other sites

Mnie tam bardziej osobiście przeszkadza, że strona DP chodzi ociężale, gorzej, niż czołg na owsiany napęd.

Share this post


Link to post
Share on other sites

Ale co z tego? Będzie sens oceniać, jak nowa wersja ujrzy światło dzienne. Póki jest stara i jest wadliwa, nie da się ukryć, że ma tyle błędów, ile ma.

Już od kilku miesięcy dobreprogramy są w nowej wersji, przepisane na nowo. Teraz się walidują na XHTML Transitional (w tej chwili jest wyjątek, bo na liście ostatnich tematów na forum pojawił się tekst ze znakiem > który jest zapisany wprost, nie za pomocą encji), a na XHTML Strict są 4 błędy.

Share this post


Link to post
Share on other sites

Tyle, że w przypadku kopalni wiedzy walidator nie czepia się kodu HTML, a skryptu (konkretnie zmiennej w pętli), którego nie rozumie i nie ma prawa rozumieć. W końcu skrypt to "czarna skrzynka": wrzucasz coś na wejściu i wyciągasz to, co cię interesuje na wyjściu nie interesując się implementacją.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Similar Content

    • By KopalniaWiedzy.pl
      Gavin Thomas, który w Microsofcie sprawuje funkcję Principal Security Engineering Manager, zasugerował, że ze względów bezpieczeństwa czas porzucić języki C i C++. Thomas argumentuje na blogu Microsoftu, że rezygnacja ze starszych języków na rzecz języków bardziej nowoczesnych pozwoli na wyeliminowanie całej klasy błędów bezpieczeństwa.
      Od 2004 roku każdy błąd naprawiony w oprogramowaniu Microsoftu jest przez nas przypisywany do jednej z kategorii. Matt Miller podczas konferencji Blue Hat w 2019 roku zauważył, że większość tych dziur powstaje wskutek działań programistów, którzy przypadkowo wprowadzają do kodu C i C++ błędy związane z zarządzeniem pamięcią. Problem narasta w miarę jak Microsoft tworzy coraz więcej kodu i coraz silniej zwraca się w stronę oprogramowania Open Source. A Microsoft nie jest jedyną firmą, która ma problemy z błędami związanymi  z zarządzaniem pamięcią, pisze Thomas.
      W dalszej części swojego wpisu menedżer wymienia liczne zalety C++, ale zauważa, że język ten ma już swoje lata i pod względem bezpieczeństwa czy metod odstaje od nowszych języków. Zamiast wydawać kolejne zalecenia i tworzyć narzędzia do walki z błędami, powinniśmy skupić się przede wszystkim na tym, by programiści nie wprowadzali błędów do kodu, czytamy.
      Dlatego też Thomas proponuje porzucenie C++. Jednym z najbardziej obiecujących nowych języków programistycznych zapewniających bezpieczeństwo jest Rust, opracowany oryginalnie przez Mozillę. Jeśli przemysł programistyczny chce dbać o bezpieczeństwo, powinien skupić się na rozwijaniu narzędzi dla developerów, a nie zajmować się tymi wszystkimi pobocznymi sprawami, ideologią czy przestarzałymi metodami i sposobami rozwiązywania problemów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Niedawno donosiliśmy o wynikach badań, z których wynika, że oceany ogrzały się bardziej niż dotychczas sądziliśmy. Teraz ich autorzy informują, że popełnili błąd w obliczeniach. Podkreślają przy tym, że pomyłka nie falsyfikuje użytej metodologii czy nowego spojrzenia na biochemię oceanów, na których metodologię tę oparto. Oznacza jednak, że konieczne jest ponowne przeprowadzenie obliczeń.
      Jak mówi współautor badań, Ralph Keeling, od czasu publikacji wyników badań w Nature, ich autorzy zauważyli dwa problemy. Jeden z nich związany jest z nieprawidłowym podejściem do błędów pomiarowych podczas mierzenia poziomu tlenu. Sądzimy, że łączy efekt tych błędów będzie miał niewielki wpływ na ostateczny wynik dotyczący ilości ciepła pochłoniętego przez oceany, ale wynik ten będzie obarczony większym marginesem błędu. Właśnie prowadzimy ponowne obliczenia i przygotowujemy się do opublikowania autorskiej poprawki na łamach Nature, stwierdza Keeling.
      Redakcja Nature również postanowiła pochylić się nad problemem. Dla nas, wydawców, dokładność publikowanych danych naukowych ma zasadnicze znaczenie. Jesteśmy odpowiedzialni za skorygowanie błędów w artykułach, które opublikowaliśmy, oświadczyli przedstawiciele pisma.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amerykański Sąd Najwyższy jednogłośnie oświadczył, że nie wolno patentować testów medycznych, które polegają na badaniu zależności pomiędzy dawkami leków a ich efektami terapeutycznymi. Sędzia Stephen Breyer, który napisał uzasadnienie wyroku stwierdził, że prawa natury nie mogą być patentowane same w sobie lub w połączeniu z procesami składającymi się z dobrze rozumianych, standardowych, konwencjonalnych działań.
      Sporna sprawa dotyczyła interakcji pomiędzy tiopurynami a metabolitami z krwi pacjenta. Firma Prometheus Laboratories opracowała metodę, pozwalającą lekarzom na określenie bezpiecznej skuteczniej dawki tiopuryn. Po jakimś czasie nieco inną metodę opracowali lekarze z Mayo Clinic. Wówczas Prometheus pozwała klinikę o naruszenie dwóch patentów.
      Spór dotarł aż do Sądu Najwyższego.
      Sędzia Breyer stwierdził, że podstawą wynalazku Prometheusa są prawa natury, a konkretnie „związek pomiędzy koncentracją pewnych metabolitów we krwi, a prawdopodobieństwem, iż dawka tiopuryn będzie nieskuteczna bądź szkodliwa“. Sędzia zauważył, że Einstein nie mógłby opatentować swojego słynnego twierdzenia, opracowując proces, który polegałby na poinformowaniu operatorów akceleratorów cząstek, by brali pod uwagę prawo dotyczące produkcji energii z masy. Zdaniem sędziego Prometheus robi dokładnie to samo, po prostu mówi lekarzom, by zebrali dane, na podstawie których mogą określić prawdopodobieństwo pojawienia się interferencji pomiędzy metabolitami a tiopurynami.
      Sąd Najwyższy odrzucił też sugestię rządu federalnego, by wstępnie zezwolić na przyznawanie podobnych patentów, a które mogłyby być obalane jeśli udowodni się ich oczywistość.
    • By KopalniaWiedzy.pl
      Sędzia Judith Potter orzekła, że sądowy nakaz zajęcia pieniędzy, pojazdów i posiadłości Kima Dotcoma jest nieważny,i nie powinien zostać wydany i nie niesie ze sobą skutków prawnych.
      Właściciel Megaupload może zatem spodziewać się, że jego własność zostanie mu zwrócona, a konta odblokowane, gdyż policja i prawnicy z rządowego biura prawnego popełnili poważny błąd proceduralny.
      Sędzie Potter stwierdziła, że komisarz Peter Marshall złożył do sądu wniosek o taki typ nakazu zajęcia majątku, który nie dawał Dotcomowi możliwości przygotowania obrony. Już po policyjnej akcji i aresztowaniu Dotcoma Marshall zorientował się, że popełnił pomyłkę i wystąpił o właściwy nakaz. Został on wydany, ale tylko tymczasowo. Dlatego też sędzia Potter wkrótce będzie musiała orzec, czy błąd policji oznacza, iż Dotcomowi należy zwrócić majątek.
      Już 30 stycznia do sądu trafiła informacja z rządowego biura prawnego, które przygotowuje takie wnioski, iż popełniono błąd proceduralny.
      Jako, że sąd wydał wspomniany już właściwy nakaz, śledczy twierdzą, że dowodzi to, iż pierwotna pomyłka niczego nie zmienia. Innego zdania są obrońcy Dotcoma. Ich zdaniem majątek mężczyzny powinien zostać mu zwrócony, gdyż został zajęty bezprawnie.
      Profesor Ursula Cheer z Canterbury University mówi, że prawo dopuszcza pomyłki, a powyższa sprawa może stać się drugim poważnym zwycięstwem Dotcoma - pierwszym było jego zwolnienie z aresztu - pod warunkiem, iż jego prawnicy udowodnią policji złą wolę.
    • By KopalniaWiedzy.pl
      Zaoferowana przez Google’a nagroda za złamanie zabezpieczeń Chrome’a zachęciła hackerów do działania. Przeglądarka Google’a jako pierwsza poddała się uczestnikom konkursu Pwn2Own. W ubiegłym roku żaden z hackerów nie próbował się do niej włamać. Tym razem było inaczej i nie pomogło łatanie przeglądarki na kilka dni przed konkursem. Współzałożyciel francuskiej firmy VUPEN Chaouki Bekrar i jego zespół wykorzystali dwie dziury typu zero-day w Chrome do przejęcia kontroli nad komputerem z w pełni załatanym 64-bitowym Windows 7.
      Bekrar powiedział, że znalezienie dziur i napisanie odpowiedniego kodu zajęło 6 tygodni. Musieliśmy użyć dwóch dziur. Za pomocą pierwszej obeszliśmy technologie zabepieczające DEP i ASLR w Windows, a druga umożliwiła nam wyjście poza „piaskownicę“ Chrome’a. Nie chciał zdradzić, czy luka działa na kodzie Google’a czy firmy trzeciej. To była dziura typu use-after-free [związana z nieprawidłowa alokacją pamięci po jej zwolnieniu - red.] w domyślnej instalacji Chrome’a. Nasz kod działa na domyślnej instlacji, więc nie ma znaczenia, czy wykorzystuje on [dostarczony wraz z przeglądarką - red.] kod firmy trzeciej - mówi.
      Podczas demonstracji Bekrar stworzył spreparowaną witrynę, a gdy odwiedzono ją za pomocą komputera wyposażone w Chrome, doszło do automatycznego ataku i otwarcia Kalkulatora poza „piaskownicą“. Nie jest wymagana żadna interakcja ze strony użytkownika, żadne dodatkowe kliknięcia. Wchodzimy na stronę i program jest uruchamiany.
      Bekrar pochwalił jednocześnie Chrome’a. Jego zdaniem Google stworzył bardzo bezpieczny sandbox i Chrome jest jedną z najbezpieczniejszych przeglądarek.
      Drugą przeglądarką, która poddała się atakom, była Safari zainstalowana w systemie Mac OS X. Również i ona padła ofiarą ekspertów z VUPEN. Atak przeprowadzono w zaledwie 5 sekund, co każe poważnie zastanowić się nad prawdziwością poglądu, jakoby Mac OS X był bezpieczniejszy od Windows. Zdaniem hackerów, wcale tak nie jest. System Apple’a nie dość, że korzysta tylko z technologii ASLR, a nie używa DEP, to dodatkowo jest ona źle zaimplementowana. Ataku na Safari dokonano za pośrednictwem silnika WebKit, który zawiera wiele dziur. Co prawda z WebKita korzysta też Chrome, jednak Google znacznie poprawił kod silnika, dzięki czemu jego przeglądarka jest bezpieczniejsza.
×
×
  • Create New...