Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Wiele mówi się o konieczności przestrzegania standardów w Internecie. W założeniu powinny one ułatwiać nam wszystkim życie. Stąd też zwykle duże zainteresowanie towarzyszy wydaniu kolejnych edycji przeglądarek. Wówczas wiele pisze się o tym, czy dana przeglądarka w sposób zgodny ze standardami interpretuje witryny WWW. Podawane są wyniki ACID, który jest najważniejszym testem na rynku przeglądarek.

Jednak większość osób skupiających się na przestrzeganiu standardów przez przeglądarki, nie zadaje sobie prostego pytania. A brzmi ono: Czy jest sens skupiać się tylko na przeglądarkach, pomijając sprawdzenie, czy interpretowane przez nie witryny spełniają standardy?

Postanowiliśmy sprawdzić, jak wygląda przestrzeganie standardów przez najpopularniejsze w Polsce i na świecie witryny internetowe. W tym celu wykorzystaliśmy oficjalny walidator organizacji W3C, którym sprawdziliśmy 200 witryn. Sto z nich to strony cieszące się największą popularnością w światowej Sieci, a 100 - w polskiej. Listę witryn ułożyliśmy na podstawie danych serwisu Alexa.com.

Z powodu występujących błędów wykonanie walidacji było niemożliwe na 6 spośród 100 światowych liderów. Na pozostałych 94 witrynach znaleźliśmy w sumie 13 589 błędów!

Jedynie 9 spośród badanych stron było napisanych bezbłędnie. Są to: MSN.com, Wikipedia.org, Wordpress.com, Yandex.ru, Skyrock.com, BBC.co.uk, Craiglist.org, Free.fr oraz Yahoo.com.cn.

Tylko 7 witryn mogło pochwalić się nie więcej niż 9 błędami: Live.com (4), Youporn.com (8), Odnoklassniki.ru (1), Mininova.org (2), Naver.com (8), Apple.com (1) i Metroflog (1).

Znacznie więcej było takich, na których walidator znalazł od 100 do 500 błędów. Tutaj trzeba wymienić: YouTube.com (104), Microsoft.com (177), eBay.com (230), Hi5.com (292), Mail.ru (165), Imdb.com (186), Go.com (164), RedTube.com (261), eBay.de (273), Espn.go.com (494), Livedoor.com (243), Rediff.com (163), Veoh.com (436), Deviantart.com (218), Goo.ne.jp (153), eBay.co.uk (195), Mediafire.com (200), Download.com (263), NYTimes.com (328) i Wretch.cc (256).

Chociaż trudno w to uwierzyć, są i takie witryny, których autorzy zdołali na stronie głównej popełnić więcej niż 500 błędów. Znajdziemy tutaj: AOL.com (858), Perfspot.com (578), Gamespot.com (563). To jednak nie koniec. Absolutnymi zwycięzcami w rankingu liczby błędów są bowiem: Amazon.com (1355), 163.com (1405), Uol.com.br (1007).

Nie lepiej wygląda sytuacja wśród witryn najpopularniejszych w Polsce, co nie znaczy, że polskich. Walidacja była niemożliwa na trzech witrynach. W sumie na pozostałych 97 występuje 9087 błędów.

Bezbłędnie napisane witryny to: WP.pl, Wikipedia.org, OtoMoto.pl, MSN.com, FilmWeb.pl, Gratka.pl, Money.pl, Nazwa.pl, DarkWarez.pl i Wordpress.com.

Są też witryny, których twórcy dołożyli starań by nie popełnić więcej niż 9 błędów: Nasza-klasa.pl (5), Interia.pl (6), Orange.pl (4), Chomikuj.pl (5), WyspaGier.pl (4), Home.pl (1), Live.com (4), mBank.com.pl (4), YouPorn.com (8), Wykop.pl (4), PKT.pl (9).

Jednak, jak się możemy domyślić, znowu więcej jest witryn, na których występuje 100-500 błędów: Allegro.pl (243), YouTube.com (104), Fotka.pl (190), Wrzuta.pl (215), Gazeta.pl (488), Pudelek.pl (570), RedTube.com (261), Microsoft.com (177), Torrenty.org (120), Fora.pl (155), Blox.pl (116), Republika.pl (363), JoeMonster.org (311), Gumtree.pl (104), IDG.pl (170), nocoty.pl (114), odsiebie.com (130), Wyborcza.pl (144), Kafeteria.pl (228), Deviantart.com (218), MojaGeneracja.pl (176), Rozklad-PKP.pl (189), Neostrada.pl (208), Wizaz.pl (242).

Ponad 500 błędów popełnili twórcy witryn: Pudelek.pl (570) i SFD.pl (534). Najgorzej jednak wypada strona DobreProgramy.pl z 1117 błędami znalezionymi przez walidator.

Oczywiście testy przeprowadzone za kilka dni mogą dać odmienne wyniki, gdyż na wymienionych powyżej witrynach bez przerwy jest coś zmieniane.

Warto więc zadać sobie pytanie, czy jest sens, by twórcy przeglądarek starali się spełniać standardy, podczas gdy powszechnym zjawiskiem jest nieprzestrzeganie ich przez twórców witryn.

Share this post


Link to post
Share on other sites

Ja zawsze pisze strony zgodnie z standardami w3c, ale prawda jest taka, że czasami jakaś przeglądarka (ie, ff albo opera, bo tych używam do sprawdzania wyświetlania strony) nie zobaczy jakiegoś marginesu, czegoś innego nie zrobi albo co najdziwniejsze zrobi coś czego nie ma, ale zawsze można to jakoś pokonać.

Share this post


Link to post
Share on other sites

Zawsze można to jakoś pokonać ale zazwyczaj robi się to kosztem właśnie jednego błędu w teście W3C więcej. Ja zawsze zwracam uwagę na ilość błędów i najczęściej udaje mi się doprowadzić do bezbłędności no ale... Miałem sytuację w której klient zażyczył sobie ten kawałek tekstu w tym miejscu. IE nie widzi marginesu. No to tabele, w ff strona się posypała. Można by tak w kółko albo kroić stronę od początku, ale użyłem tagu którego nie powinno się używać w html4strict i strona wyświetlana była poprawnie ale W3C odnotował jeden błąd. Gdyby nie konflikt pomiędzy przeglądarkami wszystko byłoby ok.

 

Z tego co pamiętam M$ wymyślił parę swoich własnych tagów html'owych które dodał do swojej przeglądarki podczas gdy inne ich nie obsługiwały... Gdyby nie W3C i inne organizacje zajmujące się standaryzacją każda przeglądarka obsługiwałaby swoje tagi i do każdej strony potrzebowalibyśmy innej przeglądarki. Właśnie po to są te standardy. A to że niektórzy twórcy portali nie zwracają uwagi na walidator to już ich sprawa.

 

O proszę: http://validator.w3.org/check?uri=http%3A%2F%2Fkopalniawiedzy.pl%2F ;]

Share this post


Link to post
Share on other sites

Za taki stan rzeczy jest odpowiedzialny Internet Explorer, ktory jest napopularniejsza przegladarka i zawsze mial problemy z przestrzeganiem standardow. Jesli napisze sie strone zgodna ze standardami W3 to czesc elementow na IE nie wyswietli sie prawidlowo. Strony natomiast sa pisane pod IE, zeby wiekszosc ludzi miala mozliwosc ich odczytu. Bledne kolo.

Wlasnie dlatego tak goraco sie nawoluje o przechodzenie na Firefoksa, Opere, Chrome'a czy Safari. Sa to dobre, bezpieczne przegladarki, ktore o wiele lepiej radza sobie z przestrzeganiem standardow. Ich stosowanie sprawi, ze siec stanie sie bardziej uniwersalna. Wtedy wszystkie strony beda tworzone w zgodzie ze standardmi.

Share this post


Link to post
Share on other sites

ta z IE są największe problemy, ale cóż poradzić. obecnie kończę jedną stronę i na razie trzyma standardy :)

Share this post


Link to post
Share on other sites
Warto więc zadać sobie pytanie, czy jest sens, by twórcy przeglądarek starali się spełniać standardy,

Oczywiście, że jest sens, inaczej znów zrobi sią chaos i samowolka, jak w czasach walki IE z Netscape. Tyle że dziś Internet i jego prawidłowe działanie jest o wiele ważniejsze.

Share this post


Link to post
Share on other sites

Pozostaje pytanie - czy trzymać się ściśle standardów i nie zwracać uwagi na przeglądarki, czy pisać kod trzymając się standardów i ewentualnie robiąc świadome odstępstwa, żeby strona działała w praktyce i była zaaprobowana przez klienta? Ja mam zawsze jeden poważny problem - przezroczystość. Kończy się na użyciu czterech różnych właściwości (w tym Microsoftowskich filtrów, moz-opacity, khtml-opacity dla konquerora i wkońcu, poprawnego opacity). Oczywiście, że standardy są potrzebne. Ale postęp również. Którz inny za nim stoi jak nie przeglądarki, które łamią standardy?

Share this post


Link to post
Share on other sites

Wiesz, twoje ostatnie zdanie to – nie obraź się – bzdura. Przeglądarki łamiące standardy włąśnie hamują postęp. Gdyby nie samowolki IE i spowodowane przez niego zacofanie, to melibyśmy o wiele lepszą powszechną implementację standardów i więcej możliwośći kreowania stron — bo standardy wykraczają już daleko poza to, co oferują nawet najlepsze w ich implementacji przeglądarki. A nawet tego, co już można używać, nie używa się, właśnie przez hamulcowych, łamiących standardy.

Share this post


Link to post
Share on other sites

"A moim zdanie dobreprogramy idą z duchem czasu. 22 błędy, 2 ostrzeżenia wystarczy wybrać walidację jako HTML 5

 

link "

Share this post


Link to post
Share on other sites
Najgorzej jednak wypada strona DobreProgramy.pl z 1117 błędami znalezionymi przez walidator.

 

A może Portal KopalniaWiedzy.pl poszperałby na forum DP i dowiedział się, że już praktycznie ukończona jest nowa wersja "dobrych" (przeprowadzane są zamknięte beta-testy), która waliduje się poprawnie?

 

To naturalne, że silnik "dobrych" ma już swoje lata (chyba to rocznik 2003), a o tym że w przygotowaniu jest nowa wersja także wiadomo już od ładnych paru lat.

 

Dla porównania inne, nowe dzieła twórców "dobrych":

www.techit.pl

www.gamikaze.pl

 

Edit:

Data wprowadzenia aktualnej wersji to 14.02.2004, dowód:

http://dobreprogramy.pl/index.php?dz=15&n=1073&Metamorfoza+i+konkurs...

Tak więc obecny kod liczy sobie już prawie 4 lata.

Share this post


Link to post
Share on other sites

Ale co z tego? Będzie sens oceniać, jak nowa wersja ujrzy światło dzienne. Póki jest stara i jest wadliwa, nie da się ukryć, że ma tyle błędów, ile ma.

Share this post


Link to post
Share on other sites

Mnie tam bardziej osobiście przeszkadza, że strona DP chodzi ociężale, gorzej, niż czołg na owsiany napęd.

Share this post


Link to post
Share on other sites

Ale co z tego? Będzie sens oceniać, jak nowa wersja ujrzy światło dzienne. Póki jest stara i jest wadliwa, nie da się ukryć, że ma tyle błędów, ile ma.

Już od kilku miesięcy dobreprogramy są w nowej wersji, przepisane na nowo. Teraz się walidują na XHTML Transitional (w tej chwili jest wyjątek, bo na liście ostatnich tematów na forum pojawił się tekst ze znakiem > który jest zapisany wprost, nie za pomocą encji), a na XHTML Strict są 4 błędy.

Share this post


Link to post
Share on other sites

Tyle, że w przypadku kopalni wiedzy walidator nie czepia się kodu HTML, a skryptu (konkretnie zmiennej w pętli), którego nie rozumie i nie ma prawa rozumieć. W końcu skrypt to "czarna skrzynka": wrzucasz coś na wejściu i wyciągasz to, co cię interesuje na wyjściu nie interesując się implementacją.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      W Europie zatwierdzono właśnie nowy test na obecność przeciwciał koronawirusa SARS-CoV-2. Jego skuteczność wynosi 99%. Test pozwala na stwierdzenie, czy już zetknęliśmy się z wirusem. Producent testu, brytyjska firma Abbott twierdzi, że do końca maja dostarczy milionów testów.
      Profesor Simon Clarke z University of Reading mówi, że pojawienie się powszechnie dostępnego wiarygodnego testu to znaczące wydarzenie. Ten test pozwoli stwierdzić, czy już się zetknęliśmy z koronawirusem i czy pojawiła się reakcja immunologiczna naszego organizmu. Nie powie nam natomiast, czy jesteśmy odporni na zarażenie. Posiadanie przeciwciał nie gwarantuje odporności. Może ją zapewniać, ale tego nie wiemy.
      Z wcześniejszych doświadczeń z koronawirusami wiemy, że po infekcji niektórymi z nich zyskujemy odporność na bardzo krótki czas. Jako, że SARS-CoV-2 to nowy wirus, nie wiemy, na jak długo zyskujemy na niego odporność.
      Nowy test wykrywa proteinę IgG, którą nasz organizm wytwarza po infekcji koronawirusem. Proteina może pozostawać w organizmie przez miesiące, a nawet lata.
      Producent testu informuje, że przetestował jego czułość na 73 pacjentach chorujących na COVID-19, u których pierwsze objawy choroby wystąpiły 14 dni przed wykonaniem testu. Okazało się, że czułość testu (czyli jego zdolność do prawidłowego wykrywania obecności przeciwciał), wynosi ponad 99%. Co równie istotne, swoistość testu (czyli zdolność do wykrywania braku przeciwciał), była badana na 1070 próbkach i wyniosła również ponad 99%.
      Nowy test pozwoli stwierdzić, ile osób w rzeczywistości chorowało na COVID-19, a tym samym pozwoli określić tempo rozprzestrzeniania się epidemii i śmiertelność nowej choroby.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Chcielibyście wiedzieć, jaka kombinacja antybiotyków najlepiej zadziała na konkretnego pacjenta? I znaleźć ją w 12, a może nawet w 6 godzin, na miejscu? A może marzy się wam przeszukiwanie tysięcy próbek naraz w poszukiwaniu swoistych przeciwciał? To wszystko umożliwia nowy chip stworzony przez naukowców z IChF PAN. Jest tani, szybki i wiarygodny. Może zastąpić szybkie testy immunochromatograficzne i daje pacjentom większe szanse na pokonanie zakażenia.
      Nowe narzędzie diagnostyczne tworzy zespół pod kierunkiem prof. Piotra Garsteckiego. W pracy opublikowanej w Micromachines badacze wykazali, że połączenie kilku różnych, prostych metod pozwala stworzyć przyjazny użytkownikom zestaw do badania wrażliwości bakterii na antybiotyki. Nowy chip wykorzystuje mniej odczynników i antybiotyków niż standardowy antybiogram na agarowej pożywce, a jego użycie jest tak proste jak Etestu. Użytkownik może też wybrać sposób wizualizacji wyników, np. wykorzystując metaboliczne wskaźniki obecności bakterii, barwniki fluorescencyjne albo efekt kolorymetryczny.
      Chcieliśmy zbadać antybiotykowrażliwość najprościej, jak tylko się da, nie tylko dla pojedynczej substancji bakteriobójczej, ale także dla ich kombinacji albo w różnych warunkach - wyjaśnia dr Ladislav Derzsi, jeden z autorów pracy nadzorujący projekt. By stworzyć nasz chip, połączyliśmy kilka rzeczy odkrytych zupełnie niezależnie. Wykorzystaliśmy np. standardowe techniki fotolitografii i litografii tworzyw sztucznych, powszechnie używane do produkcji tzw. laboratoriów chipowych (LOC), i połączyliśmy je z techniką druku bezkontaktowego na specjalnie dla nas zaprojektowanej maszynie. Dzięki połączeniu tych metod naukowcy są w stanie precyzyjnie zakraplać mikroskopijne ilości dowolnej cieczy w mikrodołki chipu na podobnej zasadzie, jak działają drukarki atramentowe lub laserowe. W prezentowanym badaniu zakraplane były roztwory antybiotyków w różnym stężeniu i różnych kombinacjach. Drukarki mają maleńkie dysze i wykorzystując siły piezoelektryczne, potrafią precyzyjnie dostarczać w żądany punkt określoną objętość atramentu: nanolitry, pikolitry, ba, nawet femtolitry - mówi dr Derzsi. My robimy podobnie, tyle że zamiast atramentu dostarczamy antybiotyki i nie na papier, lecz do mikrodołków z plastycznego elastomeru. Rozpuszczalnik, czyli woda, odparowuje, a to, co zostaje, to mikroskopijna dawka antybiotyku. W opisywanym badaniu mikrodołki były stosunkowo duże, miały 1 mm średnicy i pojemność ok. 0,67 mikrolitra. Na każdym chipie umieściliśmy 1024 takie celki. To o rząd wielkości więcej niż na standardowych płytkach, które mają 96 dołków i to mimo że nasza konstrukcja jest o połowę mniejsza. Co więcej, zmniejszając indywidualne rozmiary każdej celki, liczbę mikrodołków można zwiększyć nawet do 10000 na standardowych rozmiarów chip - dodaje naukowiec.
      By ułatwić korzystanie z nowej metody, badacze owijają chipy taśmą polimerową, by odciąć dostęp powietrza, a następnie poddają je działaniu próżni. W ten sposób sprzęt jest dostarczany do końcowego użytkownika w postaci sterylnej, w podciśnieniu. W wersji komercyjnej zapewne dodatkowo pakowalibyśmy chipy próżniowo tak, jak to się robi z żywnością - wyjaśnia dr Derzsi. Użytkownik musi tylko odpakować płytkę, wprowadzić roztwór bakterii zwykłą, dostępną na rynku pipetą, a potem dodać niewielką ilość oleju, który rozdziela dołki i pomaga uniknąć ich krzyżowego skażenia. Później trzeba już tylko włożyć płytkę do cieplarki i... czekać na wynik. Po zadanym czasie można odczytać, jaka kombinacja antybiotyków i w jakich stężeniach działa najlepiej; innymi słowy, zobaczyć, gdzie bakterie rosną niechętnie lub wcale.
      Wielką zaletą nowego systemu diagnostycznego jest jego elastyczność. Można wytwarzać sterylne zestawy pod dyktando odbiorcy, z różnymi antybiotykami w różnych kombinacjach. My badaliśmy na jednej płytce 6 pojedynczych antybiotyków w ośmiu różnych stężeniach i –  dla zwiększenia precyzji – w ośmiu powtórzeniach. Testowaliśmy też ich kombinacje, umieszczając w jednym mikrodołku po dwa z sześciu badanych antybiotyków i sprawdzając ich działanie w szeregu powtórzeń. Można zresztą badać połączenia wielu antybiotyków, inhibitorów i substancji pomocniczych, wstrzykując je do jednej celki w zadanych przez odbiorcę kombinacjach - mówi dr Derzsi - ale zwykle lekarze nie podają pacjentowi więcej niż dwóch, by nie przeciążać jego organizmu. Dzięki naszej metodzie mogą pobrać od chorego próbkę i sprawdzić, który antybiotyk lub jakie ich połączenie zadziała optymalnie w tym konkretnym przypadku, czyli zidywidualizować leczenie, zamiast polegać na statystycznych uogólnieniach. A przecież każdy z nas reaguje na terapię nieco inaczej, nawet jeśli chorobę wywołały te same mikroby. Chodzi o mikroflorę, indywidualną zmienność metabolizmu i wiele innych czynników. Można zatem powiedzieć, że opracowana w IChF PAN metoda to krok przybliżający nas w stronę medycyny spersonalizowanej. Z drugiej strony, to wielka pomoc nie tylko dla klinicystów, ale i dla badaczy próbujących znaleźć nowe, nieoczywiste połączenia antybiotykowe, które działałyby lepiej od tych powszechnie znanych.
      Choć praca zespołu prof. Garsteckiego skupiała się na antybiotykowrażliwości bakterii, sama metoda ma potencjał, by po wprowadzeniu pewnych zmian można ją było wykorzystywać także np. do identyfikacji swoistych genów albo przeciwciał. Zwłaszcza że byłoby to ekonomiczne. Pojedyncza płytka nie powinna kosztować więcej niż 5 euro. Metody mikrofluidyczne mają jeszcze jedną zaletę: poszukując nowych leków, naukowcy często mają do dyspozycji bardzo ograniczoną liczbę potencjalnie leczniczych substancji. Dzięki drukowi bezkontaktowemu mogą przetestować więcej różnych stężeń i kombinacji takich leków in spe, zanim zabraknie im substratu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy opracowali czuły i swoisty test z krwi, który pomaga wykryć ponad 50 typów nowotworów. Wyniki badań ukazały się w piśmie Annals of Oncology.
      Test opracowany przez firmę GRAIL wykorzystuje całogenomowe sekwencjonowanie bisulfitowe (ang. whole genome shotgun bisulfite sequencing, WGSBS) do określenia wzorca metylacji. W komórkach nowotworowych jest on często wyraźnie inny niż w prawidłowych komórkach. Gdy komórki nowotworowe obumierają, ich DNA z grupami metylowymi dostaje się do krwiobiegu. To właśnie pozakomórkowe DNA (ang. cell-free DNA, cfDNA) z osocza jest analizowane przez nowy test.
      Nasze wcześniejsze badania wykazały, że testy oparte na metylacji dają przy wykrywaniu licznych form nowotworów w próbkach krwi lepsze wyniki niż tradycyjne metody sekwencjonowania DNA. Wyniki nowego studium demonstrują, że takie testy są wykonalną metodą skryningu ludzi pod kątem szerokiej gamy nowotworów - przekonuje dr Geoffrey Oxnard z Dana-Farber Cancer Institute.
      Podczas studium naukowcy pracujący pod przewodnictwem specjalistów z Dana-Farber i Mayo Clinic wykorzystali test do analizy pozakomórkowego DNA z 6689 próbek krwi (2482 pochodziły od osób z nowotworem, a 4207 od osób bez nowotworu). Próbki od pacjentów z nowotworem reprezentowały ponad 50 typów nowotworów, w tym raka piersi, trzustki, jajnika czy jelita grubego, a także białaczkę limfocytową i szpiczaka mnogiego.
      W ramach swoich badań naukowcy stworzyli też maszynowy model diagnozujący. Trenowano go na zestawie 4720 próbek, a sprawdzono na osobnym zestawie 1969 próbek. Maszyna uzyskała stałą wysoką swoistość sięgającą 99%. Czułość rozpoznania była uzależniona od tego, czy model miał do rozważenia wszystkie możliwe nowotwory, czy też jedynie określony ich zestaw. W tym drugim przypadku trafność diagnozy była zdecydowanie wyższa.
      Ogólna swoistość testu wynosiła 99,3%. Czułość dla stopni zaawansowania I-III dwunastu wybranych rodzajów nowotworów, odpowiadających za ~63% nowotworowych zgonów w USA rocznie - raka odbytu, raka pęcherza moczowego, raka jelita grubego, raka przełyku, nowotworów głowy i szyi, nowotworów wątroby i przewodów żółciowych, raka płuca, chłoniaka, raka jajnika, raka trzustki, raka żołądka i nowotworów komórek plazmatycznych - wynosiła 67,3%. O ile w grupie tych 12 nowotworów czułość dla stopnia I wynosiła 39%, o tyle dla stopni II, III i IV wynosiła, odpowiednio, 69%, 83% i 92%. Widać więc wzrost czułości wraz ze wzrostem stopnia zaawansowania nowotworu.
      Tkanka pochodzenia (ang. tissue of origin, TOO) była przewidywana w 96% próbek z sygnałem nowotworowym; wśród nich lokalizację TOO trafnie określono w 93%.
      Nasze wyniki pokazują, że opisywane podejście - testowanie cfDNA z krwi - pozwala wykryć szeroką gamę typów nowotworów we wszelkich stopniach zaawansowania, z czułością i swoistością zbliżającą się do poziomu koniecznego do skryningu na poziomie populacyjnym - podsumowuje Oxnard.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Gavin Thomas, który w Microsofcie sprawuje funkcję Principal Security Engineering Manager, zasugerował, że ze względów bezpieczeństwa czas porzucić języki C i C++. Thomas argumentuje na blogu Microsoftu, że rezygnacja ze starszych języków na rzecz języków bardziej nowoczesnych pozwoli na wyeliminowanie całej klasy błędów bezpieczeństwa.
      Od 2004 roku każdy błąd naprawiony w oprogramowaniu Microsoftu jest przez nas przypisywany do jednej z kategorii. Matt Miller podczas konferencji Blue Hat w 2019 roku zauważył, że większość tych dziur powstaje wskutek działań programistów, którzy przypadkowo wprowadzają do kodu C i C++ błędy związane z zarządzeniem pamięcią. Problem narasta w miarę jak Microsoft tworzy coraz więcej kodu i coraz silniej zwraca się w stronę oprogramowania Open Source. A Microsoft nie jest jedyną firmą, która ma problemy z błędami związanymi  z zarządzaniem pamięcią, pisze Thomas.
      W dalszej części swojego wpisu menedżer wymienia liczne zalety C++, ale zauważa, że język ten ma już swoje lata i pod względem bezpieczeństwa czy metod odstaje od nowszych języków. Zamiast wydawać kolejne zalecenia i tworzyć narzędzia do walki z błędami, powinniśmy skupić się przede wszystkim na tym, by programiści nie wprowadzali błędów do kodu, czytamy.
      Dlatego też Thomas proponuje porzucenie C++. Jednym z najbardziej obiecujących nowych języków programistycznych zapewniających bezpieczeństwo jest Rust, opracowany oryginalnie przez Mozillę. Jeśli przemysł programistyczny chce dbać o bezpieczeństwo, powinien skupić się na rozwijaniu narzędzi dla developerów, a nie zajmować się tymi wszystkimi pobocznymi sprawami, ideologią czy przestarzałymi metodami i sposobami rozwiązywania problemów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Niedawno donosiliśmy o wynikach badań, z których wynika, że oceany ogrzały się bardziej niż dotychczas sądziliśmy. Teraz ich autorzy informują, że popełnili błąd w obliczeniach. Podkreślają przy tym, że pomyłka nie falsyfikuje użytej metodologii czy nowego spojrzenia na biochemię oceanów, na których metodologię tę oparto. Oznacza jednak, że konieczne jest ponowne przeprowadzenie obliczeń.
      Jak mówi współautor badań, Ralph Keeling, od czasu publikacji wyników badań w Nature, ich autorzy zauważyli dwa problemy. Jeden z nich związany jest z nieprawidłowym podejściem do błędów pomiarowych podczas mierzenia poziomu tlenu. Sądzimy, że łączy efekt tych błędów będzie miał niewielki wpływ na ostateczny wynik dotyczący ilości ciepła pochłoniętego przez oceany, ale wynik ten będzie obarczony większym marginesem błędu. Właśnie prowadzimy ponowne obliczenia i przygotowujemy się do opublikowania autorskiej poprawki na łamach Nature, stwierdza Keeling.
      Redakcja Nature również postanowiła pochylić się nad problemem. Dla nas, wydawców, dokładność publikowanych danych naukowych ma zasadnicze znaczenie. Jesteśmy odpowiedzialni za skorygowanie błędów w artykułach, które opublikowaliśmy, oświadczyli przedstawiciele pisma.

      « powrót do artykułu
×
×
  • Create New...