Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Pod koniec stycznia opublikowaliśmy wyniki badań przestrzegania standardów przez najpopularniejsze polskie i światowe witryny WWW. Teraz postanowiliśmy sprawdzić, czy coś się w tej kwestii zmieniło.

Jak poprzednio zbadaliśmy za pomocą oficjalnego walidatora strony główne 100 najczęściej odwiedzanych witryn w polskim i ogólnoświatowym Internecie.

W witrynach popularnych wśród internautów z całego świata walidator znalazł w sumie 13 351 błędów. To nieco mniej niż sześć miesięcy temu, gdy było ich 13 589. Musimy pamiętać przy tym, że podawana przez serwis Alexa.com lista najpopularniejszych witryn ulega codziennym zmianom, więc mniejsza liczba błędów nie musi świadczyć o zastosowaniu lepszej jakości kodu. Może być efektem zmian na liście.

Przeprowadzenie walidacji nie było możliwe w przypadku 4 witryn. Pół roku temu takich witryn było 6.

Walidator znalazł 7 bezbłędnie napisanych witryn. Bez żadnego niedociągnięcia stworzone zostały: MSN.com, Wikipedia.org, WordPress.com, Craigslist.org, yandex.ru, BBC.co.uk, Skyrock.com. Z kolei autorzy 8 stron popełnili nie więcej niż 10 błędów. Tutaj należy wymienić MySpace.com (10), Orkut.com.br (10), Apple.com (3), Odnoklassniki.ru (2), RedTube.com (10), LinkedIn.com (5), 4shared.com (7), Mininova.org (10).

Z kolei od 100 do 500 błędów znajduje się na witrynach: YouTube.com (205), Microsoft.com (291), eBay.com (232), Mail.ru (215), Hi5.com (377), Taobao.com (299), Imdb.com (207), Go.com (168), youku.com (352), MediaFire.com (200), eBay.de (278), Megavideo.com (285), AdultFriendFinder.com (201), Livedoor.com (275), Rediff.com (119), Tagged.com (103), deviantART.com (233) i Goo.ne.jp (126).

Także i tym razem w zestawieniu znalazła się spora liczba witryn, na których mamy do czynienia z ponad 500 błędami. W światowej pierwszej setce jest ich siedem. To następujące witryny: AOL.com (885), 163.com (736), Rakuten.co.jp (642), ESPN.com (559). Rekordzistom udało się popełnić ponad 1000 błędów na stronie głównej. Niechlubny rekord należy do Amazona z 1590 błędami. Niedaleko w tyle pozostali Uol.com.br (1203) i Cnet.com (1108).

Przejdźmy teraz do witryn, które cieszą się największą popularnością w Polsce. Tym razem walidator mógł zweryfikować wszystkie strony i znalazł na nich w sumie 8431 błędów. To niewiele mniej niż przed sześcioma miesiącami (9087).

Spadła też, o jedną, liczba bezbłędnie napisanych witryn. Są to: WP.pl, Allegro.pl, Wikipedia.org, O2.pl, MSN.com, Gratka.pl, Kurnik.pl, Nazwa.pl, WordPress.com. Autorzy 13 witryn starali się nie popełnić więcej niż 10 błędów: Interia.pl (1), RedTube.com (10), FilmWeb.pl (1), Chomikuj.pl (4), Orange.pl (4), MySpace.com (10), PoSzkole.pl (5), Misie.pl (4), Krakow.pl (8), WyspaGier.pl (5), ZieloneImperium.pl (8), Ankieta-online.pl (1), Pomponik.pl (4).

Od 100 do 500 błędów znajdziemy na: YouTube.com (205), Gazeta.pl (442), Wrzuta.pl (126), Fotka.pl (194), Torrenty.org (122), OdSiebie.com (110), Microsoft.com (291), Blox.pl (135), Rozklad-PKP.pl (204), JoeMonster.org (343), Gumtree.pl (122), PF.pl (100), Republika.pl (331), Megavideo.com (285), Kafeteria.pl (212), Dziennik.pl (305), deviantART.com (233) i Elektroda.pl (123).

Autorzy witryny Pudelek.pl popełnili 641 błędów. Polskim rekordzistą jest jednak witryna DobreProgramy.pl, na której walidator znalazł 1162 błędy.

Liczba błędów oraz lista najpopularniejszych witryn bez przerwy się zmieniają. Jednak nawet pobieżne porównanie wystarczy, by stwierdzić, że najpopularniejszy nie znaczy bezbłędnie napisany. Chociaż przykład WP, Wikipedii, MSN czy Allegro pokazuje, że możliwe jest stworzenie strony głównej spełniającej wszelkie standardy.

Trzeba jednak pamiętać, że istnienie bezbłędnej strony głównej nie gwarantuje, że podstrony serwisu napisane zostały całkowicie zgodnie ze sztuką.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dlaczego w3c nie przygotuje "standardu" który działa na wszystkich przeglądarkach tylko wymyśla rzeczy które nigdzie nie są obsługiwane dobrze a strony nieprzestrzegające tych reguł nazywa błędnie napisanymi? Ja zawsze pisałem i będę pisał strony które ogląda się za pomocą przeglądarek a nie walidatora w3c.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wolverine

Tu jest właśnie porblem. Ale ja go widzę nieco inaczej.

W3C opracowuje standard. A to inni go nie stosują to już inna bajka. W3C przecież nie może ogłosić standardem implementacji jakiejś przeglądarki bo inne dalej nie będą trzymać standardów. Nie może tez przewidzieć co inni spieprzą.

 

To ze ten sam kod w rożnych przeglądarkach daje rożne efekty to poważny problem ale wygląd strony to nie wszystko. Tam gdzie to możliwe powinno się tak robić żeby się walidator nie czepiał bo kolejna wersja silnika przeglądarki może już to zinterpretować inaczej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sorry ale ucina mi wypowiedzi :P Wolverine, wiesz, że strona interntowa to nie tylko wygląd? Wiele z nich odwiedzanych jest tez przez osoby niepelnosprawne, korzystajace z syntezatorow, osoby niedowidzace badz z innymi problemami. To glownie dla nich tworzone sa standardy. Ze ty widzisz wszsytko w porzadku to nie znaczy ze mozesz bez problemu poruszac sie po stronie bedac osoba niewidoma.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

contactlost, co walidator powie np na zapis

<span style="font-size: x-large">To jest nagłówek</span>? Czy to jest element semantycznej strony przystosowanej do takich rzeczy jak wspomniane przez Ciebie syntezatory?

 

"Wolverine, wiesz, że strona interntowa to nie tylko wygląd?"

Wiem, dlatego napisałem, że strona ma wszędzie działać a nie wyglądać, a do tego niepotrzebny jest prostokąt z napisem "xhtml valid".

 

Nie zrozumcie mnie źle, chodzi o to, że skoro rekomendacje w3c nie są w 100% zaimplementowane to zgodność z nimi nie może być wyróżnikiem dobrze napisanej strony.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chciałbym nadmienić, że sprawdzanie ilości błędów na stronie walidatorem nie jest zbyt miarodajne. Wystarczy jeden błąd, np. niezamknięty tag, aby walidator ogłupiał i policzył 100 błędów.

 

Drugim aspektem jest to, że o jakości strony nie świadczy to czy przeszła walidację. Ważna jest łatwości nawigacji, czas ładowania, odpowiedni wygląd w zależności od treści strony, ogólna użyteczność, również, jak wspomniał contactlost, dla osób niewidomych, nie używających myszki, itd. Trzymanie się standardów za wszelką cenę generuje pewne patologie, jak np. ostatnio miałem okazję poprawiać stronę, gdzie każdy obrazek miał atrybut alt="". I co z tego, że strona pewnie i się walidowała, jak zastosowanie tej "sprytnej sztuczki" zupełnie się mijało z celem.

 

Podobnie jest z xhtml, u kolegi w firmie panuje taka zasada: strona musi być w xhtml i musi się walidować. A że xhtml nie był obsługiwany przez IE6 (nie wiem jak z nowymi wersjami), to trzeba było stosować sztuczki, takie że plik już nie był prawdziwym xml. Ale firma mogła się dumnie reklamować jako tworząca strony zgodne z najnowszymi standardami.

 

Jeszcze o jednym fakcie chciałbym wspomnieć. Walidator z definicji uzna za błąd jakieś niestandardowe atrybuty. A w dobie Ajaxa i ogólnej interaktywności stron internetowych, takie rzeczy są bardzo przydatne. Na przykład nadanie w polu <INPUT> atrybutu required, które zablokuje wysłanie formularza, gdy to pole pozostanie puste, albo <IMG> z dodatkowym atrybutem wskazującym na obrazek w pełnej rozdzielczości po kliknięciu miniatury.

 

Walidatory są przydatne, ale i tak nie zapewnią, że dana strona będzie wyświetlać się poprawnie w każdej przeglądarce, a nie każdy może sobie pozwolić na olanie IE i nie traktowałbym ich jako wyznacznika dobrze napisanej strony.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
a nie każdy może sobie pozwolić na olanie IE i nie traktowałbym ich jako wyznacznika dobrze napisanej strony

 

Niestety, Microsoft się postarał...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Walidator przydaje się, żeby zachować jako taką spójność strony (np. w IE bardzo ważne jest, aby ustawić prawidłowe DTD, bo inaczej włączą się jakieś dziwne emulatory starych wersji IE). Ale jeśli stronka renderuje się tak samo na wszystkim od IE6 po Chrome'a i różne wynalazki mobilne, to ścieranie się z wynikami walidatora uznałbym za dyscyplinę sportu.

 

Przykra rzeczywistość jest taka, że należy używać najmniejszego wspólnego podzbioru technik budowania stron (HTML/CSS/JS). Takiego, który działa na jak największej liczbie przeglądarek. Pisze się trochę dłużej, trzeba dużo testować, ale potem użytkownik nie musi oglądać ostrzeżeń o niezgodności przeglądarek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zdarza się też że na stronach jest niepoprawny kod z tego powodu że jest odpowiednio krótszy i ma na celu optymalizacje. Niestety nie każda przeglądarka sobie poradzi. Pozatym jest wiele rozwiązań które umożliwiają napisanie i krótszego, optymalnego kodu oraz poprawnego kodu np. używając z głową CSS czy nawet JS, AJAX.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Walidator znalazł 7 bezbłędnie napisanych witryn. Bez żadnego niedociągnięcia stworzone zostały: MSN.com, Wikipedia.org, WordPress.com, Craigslist.org, yandex.ru, BBC.co.uk, Skyrock.com.

MSN.com - napisana niezgodnie ze standardami: -

Wikipedia.org - napisana niezgodnie ze standardami: -

WordPress.com - napisana niezgodnie ze standardami: -

Craigslist.org - napisana zgodnie ze standardami: +

yandex.ru - napisana zgodnie ze standardami: +

BBC.co.uk - napisana niezgodnie ze standardami: -

Skyrock.com - napisana niezgodnie ze standardami: -

 

Spadła też, o jedną, liczba bezbłędnie napisanych witryn. Są to: WP.pl, Allegro.pl, Wikipedia.org, O2.pl, MSN.com, Gratka.pl, Kurnik.pl, Nazwa.pl, WordPress.com.

WP.pl - napisana niezgodnie ze standardami: -

Allegro.pl - napisana niezgodnie ze standardami: -

Wikipedia.org - napisana niezgodnie ze standardami: -

O2.pl - napisana niezgodnie ze standardami: -

MSN.com - napisana niezgodnie ze standardami: -

Gratka.pl - napisana zgodnie ze standardami: +

Kurnik.pl - napisana niezgodnie ze standardami: -

Nazwa.pl - napisana niezgodnie ze standardami: -

WordPress.com - napisana niezgodnie ze standardami: -

 

To, że walidator W3C nie pokazuje żadnego błędu nie oznacza, że strona jest zgodna ze standardami. Niektórych rzeczy walidator W3C nie sprawdza. Nie sprawdza na przykład czy strona XHTML jest wysyłana przez serwer jako application/xhtml+xml, application/xml albo text/xml, a według standardów W3C powinna (jeśli tylko istnieje taka możliwość - negocjacja zawartości).

 

Tam gdzie napisałem, że strona jest niezgodna ze standardami istnieje właśnie taka sytuacja. Mimo, że moja przeglądarka internetowa obsługuje XHTML, to i tak dostaję dokumenty XHTML w postaci dokumentów HTML (typ MIME - text/html). Pliki XHTML nie są wysyłane z odpowiednim typem MIME i nie jest stosowana negocjacja zawartości. Jest to niezgodne ze specyfikacją XHTML.

 

Mówienie, pisanie, że strony którym dałem minusy są "bezbłędnie napisane" to "nadużycie".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Microsoft zadeklarował, że nie będzie blokował sprzedaży urządzeń konkurencji, które naruszają należące doń patenty będące podstawą standardów przemysłowych. Chodzi tutaj np. o własność intelektualną zawartą w szeroko używanych formatach, jak JPEG czy MP3.
      Deklaracja koncernu z Redmond to reakcja na list Apple’a kierowany do urzędników Unii Europejskiej. W napisanym w listopadzie, a ujawnionym dopiero teraz liście, Apple proponuje ustalenie wspólnych zasad licencjonowania patentów wykorzystywanych w standardach.
      Microsoft zgadza się z takim stanowiskiem. Prawnik firmy, David Heiner, zauważa, że internet działa tylko dlatego, iż różne przedsiębiorstwa zgodziły się na wzajemne licencjonowanie patentów.
      Stanowisko Apple’a i Microsoftu poparło już Cisco.
      To z kolei oznacza, że coraz większa presja wywierana jest na Google’a. Koncern nie ma co prawda tak silnego portfolio patentów jak Microsoft, ale jest właśnie w trakcie przejmowania Motorola Mobility, co znacząco wzbogaci jego patenty. Motoroli już udało się przejściowo zablokować sprzedaż iPadów oraz iPhone’ów w Niemczech. Co prawda prawnik Google’a Allen Lo zadeklarował, że po przejęciu Motorola będzie licencjonowała swoje patenty, jednak zaznaczył, iż opłata licencyjna będzie wynosiła 2,25% od wartości sprzedaży netto urządzenia korzystającego z patentu. Zdaniem Floriana Muellera, specjalisty ds. prawa patentowego, który prowadzi blog Foss Patents, propozycja Google’a będzie nie do przyjęcia. Oznacza bowiem nie tylko znacznie wyższe opłaty od tych, proponowanych przez Apple’a, ale również wyższe od tych, jakie są obecnie stosowane na rynku. Mueller zauważa, że gdyby np. BMW licencjonował na takich zasadach któryś z patentów Motoroli to musiałby wnosić wielotysięczne opłaty od każdego sprzedanego samochodu. Sądzę, że Google celowo przyjmuje skrajną pozycję, by móc łatwo ustąpić podczas negocjacji i wymagać tego samego od innych - mówi Mueller.
      Niektórzy prawnicy sądzą, że część firm nie podpisze proponowanej deklaracji. Może ona bowiem uniemożliwić im obronę przed pozwami patentowymi wytaczanymi przez Apple czy Microsoft w sytuacji, gdy firmy te będą dysponowały tylko kluczowymi patentami wykorzystywanymi w standardach. Koncerny posiadają zaś olbrzymią liczbę mniej istotnych patentów, których umowa nie będzie obejmowała.
    • przez KopalniaWiedzy.pl
      Miliony użytkowników witryny Full Tilt Poker były oszukiwane przez jej założycieli. Tak przynajmniej twierdzą autorzy pozwu cywilnego, który federalni prokuratorzy złożyli przed jednym z sądów.
      Witryna Full Tilt Poker pobrała od swoich użytkowników 390 milionów dolarów. Pieniądze te miały być przechowywane na bezpiecznych kontach bankowych tak, by użytkownicy mogli z nich korzystać w czasie wirtualnego pokera. Tymczasem okazało się, że pieniądze przelano na konta właścicieli i zarządzających witryną. Są wśród nich najbardziej znani pokerzyści na świecie.
      Full Tilt nie był legalną witryną pokerową, a piramidą finansową - stwierdził prokurator Preet S. Bharara, którego biuro złożyło pozew. Prokuratura poinformowała, że na ślad oszustwa trafiono badając inne sprawy związane z Full Tilt i dwiema innymi witrynami - Poker Stars i Absolute Poker. Wszystkie trzy firmy mają swoje siedziby poza USA. Full Tilt pochodzi z Irlandii. W związku z powyższym odkryciem w kwietniu bieżącego roku amerykańskim obywatelom zablokowano dostęp do witryn, tłumacząc, że naruszają one przepisy o defraudacji i praniu brudnych pieniędzy.
      Użytkownicy Full Tilt, podobnie jak innych witryn dla pokerzystów, najpierw doładowywali pieniędzmi swoje wirtualne konta na witrynie. Wpłacone pieniądze, wraz z ewentualnymi wygranymi, miały być ciągle do ich dyspozycji i służyć do rozgrywek lub być wypłacane na żądanie. Gdy amerykańskie władze zablokowały dostęp do witryn, podpisano z nimi umowę, na podstawie której witryny miały zwrócić graczom ich pieniądze. Jednak w pewnym momencie witryna Full Tilt przestała dokonywać przelewów. Okazało się, że na kontach firmy skończyły się pieniądze, gdyż od kwietnia 2007 roku właściciele i zarządzający Full Tilt przelali na swoje prywatne konta 440 milionów dolarów.
      Wśród osób, do których trafiły pieniądze graczy znajdują się pokerzyści ze światowej czołówki - Howard Lederer otrzymał podobno 42 miliony USD, Chris Ferguson wzgobacił się o 25 milionów i miał otrzymać kolejnych 60 milionów.
      Wszystko wskazuje na to, że właściciele Full Tilt stworzyli olbrzymią piramidę finansową, a użytkowników uspokajali wypłatami na żądanie. Pokerzysta Greg Brooks, który od lat grał na Full Tilt powiedział, że ufał witrynie, gdyż regularnie odbierał wygrane przekraczające 100 000 USD. Teraz zdał sobie sprawę, że miliony, które zgromadził na kontach w Full Tilt najprawdopodobniej przepadły.
      Prokuratorzy, którzy pozwali właścicieli i zarządzających Full Tilt żądają zwrotu nielegalnie zarobionych pieniędzy. Poszkodowani gracze będą mogli starać się o swoje pieniądze po zakończeniu procesu sądowego.
    • przez KopalniaWiedzy.pl
      Japoński koncern NTT zademonstrował nowy standard Wi-Fi. Roboczo nazwany 802.11ac może przesyłać dane z prędkością 120 Mb/s do trzech odbiorników jednocześnie.
      Łącze wykorzystuje pasmo 5 GHz, a sygnał jest multipleksowany i demultipleksowany za pomocą technologii MIMO (Multiple Input Multiple Output). Celem NTT jest opracowanie technologii pozwalającej na przesłanie 1 gigabajta danych na sekundę. Takie przepustowości będą wkrótce potrzebne do streamingu wideo HD czy przesyłania obrazów 3D.
      Podczas prezentacji sygnał wysłano za pomocą sześciu anten, a odebrano za pomocą trzech. Technologia wykorzystana przez NTT wykorzystuje układy FPGA, które za pomocą odpowiednich algorytmów rozdzielają dane i przydzielają im miejsce w paśmie. Japońska firma twierdzi, że zamiast FPGA można użyć dedykowanego układu scalonego. Koncern ma zamiar zgłosić swoją technologię w celu standaryzacji przez Instytut Inżynierów Elektryków i Elektroników (IEEE). Nawet, jeśli 802.11ac zostanie uznana za standard to nie stanie się to przed rokiem 2013. Jednak urządzenia ją wykorzystujące mogą trafić na rynek wcześniej, podobnie jak to miało miejsce w przypadku innych standardów.
    • przez KopalniaWiedzy.pl
      Przed dwoma tygodniami Google dokonało jednej z największych zmian w swoim algorytmie wyszukiwania. Zmiany te odbijają się już na finansach tysięcy przedsiębiorstw, zwiększając dochody jednych i zmniejszając innych.
      Wpływ Google'a na gospodarkę najlepiej oddaje to, czego obecnie doświadczają liczne firmy działające przede wszystkim w internecie. Na przykład Online Publishers Association, organizacja zrzeszająca wiele z największych światowych koncernów (w tym np. CNN) informuje, że dzięki zmianom w Google'u jej członkowie zarobią w ciągu roku dodatkowy miliard dolarów. Z kolei firma Mahalo.com zwolniła 10% pracowników z powodu "znacznego spadku ruchu i wpływów".
      Przesunięcie witryny na wysokie pozycje w wynikach wyszukiwania ma olbrzymi wpływ na liczbę odwiedzających ją osób. Zdaniem Adama Dunna, dyrektora ds. SEO w Greenlight Search, aż 20-30% osób klika na pierwszy wynik w wyszukiwarce. Znalezienie się na drugim lub trzecim miejscu oznacza dla firmy przyciągnięcie uwagi 5-10% osób wyszukujących dany termin. Dalsze pozycje przyciągają mniej niż 1% odwiedzających. To oznacza, że np. witryna, która przed zmianą algorytmu była pokazywana jako pierwsza, a po jego zmianie spadła na czwartą pozycję, zanotuje olbrzymi spadek liczby odwiedzin.
      Zmiany algorytmu najbardziej dotknęły tzw. content farms, czyli witryny, które gromadzą treści innych stron. Jak twierdzi firma Sistrix, na takich witrynach ruch zmniejszył się o ponad 75%. Jednak nie wszędzie takie zmiany zaszły. Mahalo.com, Wisegeek.com czy należący do Yahoo! Associated Content zanotowały olbrzymie spadki. Tymczasem Demand Media, jedna z najbardziej krytykowanych content farms, nie zanotowała większych zmian, a na jednej z jej witryn - eHow.com - pojawiło się nawet więcej odwiedzających.
      Google twierdzi, że najwięcej na zmianach skorzystały witryny oferujące treści wysokiej jakości, czyli informacje nt. badań naukowych, dogłębne analizy itp.. I rzeczywiście. Członkowie OPA już w ciągu pierwszej doby zauważyli wzrost ruchu o 5-50 procent.
      Wyszukiwarkowy koncern zapewnia, że zmiany są dobre dla konsumentów, internetu i twórców treści wysokiej jakości.
      Jednak najwyraźniej nie wszystko poszło po myśli Google'a. Max Spankie, twórca witryny My3cents.com informuje, że stracił znaczną część użytkowników. Jego witryna umożliwia konsumentom pozostawianie recenzji i opinii na temat towarów i usług. W przeciwieństwie do witryn, które po zmianie algorytmu znalazły się wyżej niż strona Spankiego, My3cents.com moderuje wszystkie opinie i jest bardzo poważana. Amerykańska Federacja Konsumentów uznała ją za najlepszą tego typu witrynę w USA, a z My3cents.com korzystają setki firm, które dzięki witrynie kontaktują się z niezadowolonymi klientami i wyjaśniają spory. Myślę, że coś zrobili źle. Ciężko pracowaliśmy, by stworzyć witrynę najwyższej jakości, a teraz wygrywają z nami strony, które o jakość nie dbają - mówi Spankie.
      Problemy zauważył też Morris Rosenthal, autor podręczników nt. naprawy laptopów. Mówi, że po zmianie algorytmu gdy wyszukujemy jego książkę "Laptop Repair Workbook" na pierwszym miejscu znajdziemy sklep Amazona, w którym jest sprzedawana, jednak już na drugiej pozycji jest witryna, która pozwala na jej nielegalne pobranie.
      Osoby takie jak Spankie czy Rosenthal nie są, na szczęście, pozostawione same sobie. Właściciele witryn, który uważają, że niesprawiedliwie ucierpieli na zmianie algorytmu, mogą o tym poinformować Google'a na firmowym forum. Co prawda żadne ręczne zmiany w wynikach wyszukiwania nie zostaną wprowadzone, jednak jeśli skarga będzie zasadna, Google może poprawić swój algorytm tak, by wartościowa witryna znalazła się na wyższych pozycjach listy wyszukiwania.
      To system przewidujący, że jesteś winny, póki nie udowodnisz niewinności - mówi Rosenthal i dodaje, że Google nie udostępniło żadnej opcji dwustronnej komunikacji, która pozwoliłaby na wyjaśnienie wątpliwości.
    • przez KopalniaWiedzy.pl
      W USA w ramach walki z internetową pedofilią przypadkiem zablokowano 84 000 witryn, które nie miały nic wspólnego z nielegalnymi działaniami. Amerykański rząd prowadzi "Operation Protect Our Children", w ramach której blokowane są witryny z pedofilskimi materiałami. Przed kilkoma dniami Departament Bezpieczeństwa Wewnętrznego (DHS) poinformował o wykonaniu nakazu przejęcia 10 domen "zaangażowanych w reklamę i dystrybucję pornografii dziecięcej". Wśród tych domen znalazła się mooo.com, która hostuje niemal 84 000 witryn, przeważnie blogów i stron niewielkich firm.
      Osoby odwiedzające te witryny pomiędzy ubiegłym piątkiem a niedzielą były przekierowywane na stronę, na której widziały logo DHS i Departamentu Sprawiedliwości oraz informację, iż posiadanie dziecięcej pornografii zagrożone jest karą więzienia do lat 30.
      Urzędnicy w niedzielę przyznali się do pomyłki, jednak przywracanie pełnego dostępu do wszystkich witryn zajęło trzy doby.
      Poszkodowani właściciele witryn skrytykowali fakt, że urzędnicy mają prawo do blokowania witryn bez procesu sądowego. Dla mnie nie jest żadnym argumentem stwierdzenie, że w internecie dzieją się przerażające i nielegalne rzeczy... Istnieją bowiem też odpowiednie metody walki z nimi - napisał właściciel bloga Grey Ghost.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...