Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'błąd' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 41 wyników

  1. Najnowsza edycja Ubuntu, oznaczona numerem 9.10, sprawia swoim użytkownikom sporo kłopotów. Osoby, które ją zainstalowały skarżą się na migający obraz lub w ogóle jego brak, nierozpoznawanie dysków twardych przez system, problemy z uruchomieniem mechanizmów szyfrujących czy wykorzystanie starej wersji jądra 2.6.28. Użytkownicy, którzy jak najszybciej chcieli skorzystać z Karmic Koala, czyli Ubuntu 9.10, teraz ostrzegają innych. Radzą, by nie spieszyć się z przechodzeniem na nową wersję opensource'owego systemu. Wygląda na to, że twórcy najnowszej edycji Ubuntu popełnili dość poważne błędy, gdyż aż 20% osób ankietowanych na Ubuntuforums.org poinformowało, że napotkali na problemy, z którymi nie potrafili sobie poradzić. Jedynie 10% nie zauważyło żadnych błędów. Warto tutaj wspomnieć, że więcej kłopotów występuje wówczas, gdy aktualizujemy system z Ubuntu 9.04, niż gdy instalujemy go na czystym dysku. Niektórzy ze zdenerwowanych użytkowników wręcz stwierdzili, że Ubuntu 9.10 to olbrzymie rozczarowanie, inni zrezygnowali z tego systemu na rzecz Windows 7. Najpoważniejszym problemem są błędy w wyświetlaniu grafiki. Użytkownikom nie podoba się również fakt, iż zamiast najnowszego jądra 2.6.31 w Karmic Koala znalazła się jego starsza edycja. Na niektórych komputerach system nie potrafił rozpoznać dysków twardych. Ostatnie tygodnie nie były najlepsze dla użytkowników nowych systemów operacyjnych. Najpierw informowaliśmy o problemach z Windows 7, które zostały, jak się później okazało, spowodowane nieuwagą użytkowników. Tajemniczy problem dotknął też 27-calowe iMaki, ale wszystko wskazuje na to, że jest to jakiś błąd w oprogramowaniu, gdyż na tych samych komputerach bez problemu działa Windows 7.
  2. Użytkownicy komputerów iMac informują na forach o niespodziewanych kłopotach z maszynami. Wszystko wskazuje na to, że jakiś niezidentyfikowany dotąd błąd powoduje, że po wejściu na witrynę z elementami Flash, komputer pracuje bardzo powoli, gdyż dochodzi do całkowitego zużycia mocy procesora. Użytkownicy alarmują, że 27-calowe iMaki po wejściu na witryny takie jak YouTube czy Hulu pracują niezwykle wolno, a narzędzia do monitorowania sprzętu wykazują 100-procentowe użycie CPU. Podobnie dzieje się po dłuższej pracy z komputerem. "Mam 27-calowego iMaca i trafiłem na problemy z wydajnością. Jeśli zostawię go włączonego na ponad 5 godzin, niektóre aplikacje, takie jak Rosetta Stone, Front-Row, iPhoto i inne, startują niezwykle powoli. Muszę wówczas restartować komputer" - napisał użytkownik PenSilveltMEKY. Przedstawiciele Apple'a radzili skarżącym się użytkownikom, by ponownie zainstalowali wtyczkę do obsługi Flasha, jednak to nie pomagało. Tym bardziej, że problem nie ogranicza się tylko do Flasha. Na razie nie wiadomo, co jest przyczyną występowania problemów.
  3. Wśród developerów Linuksa rozgorzała dyskusja na temat błędu w nowych jądrach opensource'owego systemu. Największym zagrożeniem jest fakt, że ataki można przeprowadzać nawet na w pełni zabezpieczone maszyny, a luka w jądrze jest niemal niemożliwa do wykrycia. Po raz pierwszy o problemie poinformował Brad Spengler, który w ostatni piątek opublikował kod umożliwiający zaatakowanie Linuksa. Specjalistów martwi to o tyle, że problem dotyczy najnowszego jądra, które dopiero ma zostać rozpowszechnione. Błąd dereferencji pustego wskaźnika (null pointer dereference) występuje w kilku miejscach jądra, w tym w interfejsie Tun jądra 2.6.18 oraz 2.6.30. Sprawdzanie kodu nie wykazuje żadnych błędów, jednak jeśli do kompilacji jądra użyto GCC z włączonymi funkcjami optymalizacyjnymi, to usunie on kilka linijek kodu chroniących przed wystąpieniem błędu. W efekcie jądro w pewnych przypadkach może próbować uzyskać dostęp do zwykle niedostępnych obszarów pamięci, co atakujący może wykorzystać do uzyskania uprawnień administratora systemu. Błąd występuje tylko wówczas, gdy użytkownik systemu korzysta z rozszerzenia SELinux i gdy zainstalowane jest PulseAudio. Luka jest najprawdopodobniej rodzajem błędu w samych założeniach projektowych, które Linux odziedziczył po Uniksie. Trwa dyskusja, w jaki sposób można zabezpieczyć użytkowników na przyszłość.
  4. The Daily Princetonian, dziennik Princeton University, donosi, że studentka tej uczelni, Xiaohang Quan, w ramach swojej pracy magisterskiej odkryła błąd w Wielkim Zderzaczu Hadronów. Okazało się, że projektanci detektora CMS (Compact Muon Solenoid) popełnili pomyłkę, która powoduje, że urządzenie dwukrotnie rejestruje ślady strumieni cząstek, co prowadzi do nieprawidłowości w interpretacji wyników eksperymentów. Quan, która skupiła się w swojej pracy na kryteriach wyboru strumieni cząstek oraz na algorytmach używanych do analizy danych, odkryła niezgodność pomiędzy swoimi obliczeniami, a danymi eksperymentalnymi. Dalsza analiza wykazała błąd w CMS. Dzięki pracom Quan możliwe będzie skorygowanie algorytmów tak, by uzyskane wyniki były prawidłowe.
  5. Problemy z systemem informatycznym mogą skończyć się nie tylko wyciekiem danych czy awarią komputera, ale również śmiercią. Joseph Weiss z firmy konsultingowej Applied Control Solutions specjalizującej się w bezpieczeństwie systemów przemysłowych, zeznał przed amerykańskim Senatem, że w ciągu ostatnich 10 lat w USA przynajmniej raz doszło do śmierci ludzi z powodu nieprawidłowego działania komputerów. Ekspert mówił o bezpieczeństwie informatycznym. Weiss wie o ponad 125 przypadkach włamań do systemów przemysłowych, w tym do elektrowni atomowych, zakładów uzdatniania wody, firm pracujących w przemyśle wydobycia roby i gazu czy elektrowni wodnych. Były to incydenty najróżniejszego rodzaju. Od bardzo drobnych po powodujących spore katastrofy ekologiczne, od uszkodzeń sprzętu po przypadki śmierci - mówił Weiss zeznając przed senackim Komitetem Handlu, Nauki i Transportu. W 1999 roku w pobliżu Bellingham w stanie Waszyngton doszło do awarii rurociągu z paliwem, które przedostało się do dwóch strumieni. Doszło do zapłonu, który zabił trzy osoby. Jedną z przyczyn awarii było nieprawidłowe działanie centralnego systemu informatycznego rurociągu. Zdaniem Weissa ochrona sieci IT systemów przemysłowych jest niezwykle ważnym zadaniem. Uważa on, że skoordynowany atak na USA mógłby spowodować olbrzymie straty materialne i wielomiesięczne problemy gospodarcze. Tymczasem, jak twierdzi ekspert, systemy ochrony infrastruktury przemysłowej są zacofane o całe lata w porównaniu z innymi gałęziami gospodarki. Ataki przeprowadzane są zarówno z zewnątrz, jak i wewnątrz. Biorą w nich udział osoby trzecie i niezadowoleni pracownicy. Zapobieganie jest szczególnie ważne teraz, gdy wiele osób traci pracę. Mogą chcieć się one zemścić na swojej firmie. Ostatnio jeden z niezadowolonych pracowników wyłączył systemy ostrzegające przed wyciekiem w trzech wieżach wiertniczych u wybrzeży Kalifornii.
  6. Akademicy z University of Michigan nie ustają w wysiłkach na rzecz udoskonalania układów scalonych. Przed niemal rokiem informowaliśmy o ich oprogramowaniu, które wyszukuje błędy w chipach i proponuje sposoby ich naprawy. Teraz czas na technologię, dzięki której unikniemy problemów z komputerem, w którym znalazł się wadliwy procesor. Firmy produkujące układy scalone są w stanie wyłapać poważniejsze błędy. Ale niemożliwe jest sprawdzenie wszelkich rodzajów operacji, jakie może wykonywać procesor, dlatego też do klienta mogą trafić kości, które będą ulegały awariom w pewnych nietypowych sytuacjach. Uczeni z University of Michigan chcą uchronić użytkowników przed tego typu niespodziankami dzięki wirtualnemu "płotowi", który zabezpieczy układ. Pomysł naukowców polega na zapisaniu w maleńkim monitorze dołączanym do układu scalonego informacji o wszystkich bezpiecznych scenariuszach jego wykorzystania. Te bezpieczne scenariusze to nic innego jak testy, które układ scalony przechodzi przed opuszczeniem fabryki. Podczas tych testów sprawdzanych jest co prawda stosunkowo niewiele konfiguracji procesora, ale są to takie konfiguracje, w których w praktyce układ znajduje się przez 99,9% swojego czasu pracy. Zadaniem opracowanego przez University of Michigan zabezpieczenia, zwanego semantycznym strażnikiem (Semantic Guardian), jest reagowanie w momencie, gdy kość znajdzie się w nieprzetestowanej konfiguracji. Wówczas praca procesora jest spowalniana, przełączany jest on w "bezpieczny tryb". Innymi słowy, strażnik traktuje wszystkie nieprzetestowane konfiguracje jako stan potencjalnie niebezpieczny. Valeria Bertacco, profesor na Wydziale Inżynierii Elektrycznej i Nauk Komputerowych, zapewnia: Użytkownik nawet nie zauważy, że procesor został przełączony w tryb bezpieczny. Będzie się to zdarzało rzadko i stan taki potrwa bardzo krótko, tak, by kość przeprowadzić przez nieznane terytorium. Później z powrotem przełączy się ona w zwykły tryb. Układ w trybie bezpiecznym wykonuje wszelkie zadane mu operacje, czyni to jednak wolniej. Pani profesor porównuje technologię do motocyklisty, który jadąc szosą trafia nagle na pełną dziur, polną drogę. Otrzymuje wówczas rower, dzięki któremu może bezpiecznie przejechać. Co więcej technologia z Michigan może powstrzymać też przyszłe zagrożenie ze strony cyberprzestępców. Kris Kaspersky zapowiada, że podczas konferencji Hack in the Box zaprezentuje niezależny od systemu operacyjnego sposób ataku na błędy w układzie scalonym.
  7. Specjalista ds. zabezpieczeń, Kris Kaspersky, zapowiedział, że zademonstruje, w jaki sposób można zaatakować mikroprocesory Intela. Kaspersky twierdzi, że znalazł w nich błąd, który pozwala na przeprowadzenie zdalnego ataku za pomocą JavaScriptu lub pakietów TCP/IP. Na atak podatne są ponoć wszystkie komputery, niezależnie od zainstalowanego systemu operacyjnego. Demonstracja ma być przeprowadzona podczas październikowej konferencji Hack In The Box. Atakowane będą maszyny z w pełni załatanymi systemami Windows XP, Windows Vista, Windows Server 2003, Windows Server 2008, Linux, BSD i innymi. Niewykluczone, że próbie zostaną poddane też komputery Apple'a. Pokażę działający kod i udostępnię go - mówi Kaspersky. Dodaje, że błędy w układach scalonych stają się coraz większym problemem. Niektóre z nich pozwalają na doprowadzenie do awarii systemu, inne dają możliwość przejęcia pełnej kontroli nad jądrem OS-u. Jeszcze inne pozwalają na zaatakowanie Windows Visty poprzez wyłączenie mechanizmów ochronnych - stwierdza Kaspersky. Specjalista mówi, że większość z błędów w mikroprocesorach można naprawić. Intel co jakiś czas dostarcza producentom BIOS-u odpowiednie oprogramowanie łatające luki w procesorach. Jednak niektórzy producenci BIOS-u nie stosują tego oprogramowania, a części z luk po prostu nie można w ten sposób poprawić.
  8. W miarę postępu miniaturyzacji pojawiają się kolejne problemy związane z produkcją coraz mniejszych elementów oraz zapewnieniem ich bezproblemowej pracy. Jakiś czas temu zauważono, że przy pewnym stopniu miniaturyzacji pojawiają się problemy związane z... oddziaływaniem promieniowania kosmicznego. Docierające z kosmosu na Ziemię cząsteczki powodują błędy w pracy układów scalonych. Fujitsu Laboratories oraz należące do japońskiego Narodowego Instytutu Nauk Naturalnych obserwatorium astronomiczne na Hawajach pracują nad techniką szybkiego i dokładnego obliczania częstotliwości występowania takich błędów. Ta będzie zależała m.in. od szerokości geograficznej czy wysokości nad poziomem morza. Dzięki pracom Japończyków producenci układów scalonych będą mogli opracować techniki chroniące je przed występowaniem błedow. Fujitsu wykorzystuje dane z teleskopu Subaru, umieszczonego na szczycie Mauna Kea. Dociera tam 10-krotnie więcej neutronów niż do miejsca położonego na powierzchni morza. Naukowcy mogą więc obliczyć energię neutronów oraz opracować dane statystyczne dotyczące częstotliwości występowania błędów. Dane z Hawajów porównano z informacjami z Tokio i okazało się, że w stolicy Japonii do pomieszczeń wewnątrz budynków dociera 16-krotnie mniej neutronów. Gdy uwzględniono neutrony zatrzymane przez ściany, okazało się, że Tokio jest bombardowane 7,4-mniejszą liczbą cząstek niż szczyt Mauna Kea. Naukowcy na Hawajach zmierzyli też, że w 1024 układach SRAM wykonanych w technologii 90 nanometrów w ciągu 2400 godzin wystąpiło 36 błędów spowodowanych promieniowaniem kosmicznym. Z tego wynika, że w Tokio tyle samo błędów wystąpiłoby w ośmiokrotnie dłuższym czasie. Japończycy pracują teraz nad przystosowaniem swoich narzędzi do pomiarów liczby błędów w układach wykonanych w technologiach 65, 42 i 32 nanometrów.
  9. Zdaniem Dana Kaminsky'ego z firmy IOActive, olbrzymia liczba internautów jest narażona na niebezpieczeństwo z powodu działań jednej firmy. Brytyjskie przedsiębiorstwo Barefruit zarejestrowało wiele domen łudząco podobnych do domen znanych firm. Wystarczy, by użytkownik pomylił się wpisując znany sobie adres, a może połączyć się z serwerami Barefruit. Tam zobaczy liczne reklamy oraz sugestie dotyczące właściwych witryn, które miał zamiar odwiedzić. Co więcej, Barefrui sugeruje, w przypadku gdy pomyliliśmy się przy wpisywaniu adresu podstrony w danej domenie, że znajdujemy się na tej podstronie. Część użytkowników, może więc ufać zawartości witryny i kliknąć w pokazywane odnośniki. Problem w tym, że serwery Barefruit, jak mówi Kaminsky, są bardzo słabo zabezpieczony. Firmowym informatykom brakuje sporo wiedzy. Dlatego też firma z łatwością może paść ofiarą cyberprzestępców, którzy umieszczą na jej stronach szkodliwe linki. A że internauci dość często mylą się przy wpisywaniu adresów i wielu z nich może trafiać na witryny Barefruit, to, jak uważa IOActive, działania jednej tylko firmy zagrażają bezpieczeństwu olbrzymiej rzeszy internautów.
  10. MPAA (Motion Picture Association of America), stowarzyszenie producentów filmowych, którego zadaniem jest m.in. walka z piractwem, przyznało się do błędu, w wyniku którego aż o 200% zawyżyło poziom piractwa w kampusach uniwersyteckich. Błędne informacje pochodzą z 2005 roku i zostały użyte przez MPAA m.in. podczas zeznań przed Kongresem czy do lobbowania za wprowadzeniem odpowiednich przepisów. MAPP informuje, że dane otrzymała od wynajętej przez siebie firmy konsultingowej LEK. Jeden z jej pracowników, podczas ich wprowadzania do systemu komputerowego popełnił błąd. W jego wyniku do MPAA trafiły informacje, że z powodu piractwa na kampusach wpływy ze sprzedaży filmów są zmniejszone o 44%. Teraz MPAA jeszcze raz przyjrzała się tym danym i po odkryciu błędu stwierdziła, ze wpływy te są zmniejszone o 15%. Przedstawiciele MPAA zapowiedzieli, że organizacja wynajmie niezależną firmę, która sprawdzi informacje dostarczane przez LEK. Tymczasem krytycy twierdzą, że nawet dane mówiące o 15-procentowym zmniejszeniu wpływów są zawyżone. Zdaniem Marka Lukera, wiceprzezesa organizacji EDUCASE, MPAA nie bierze pod uwagę faktu, że 80% studentów mieszka poza kampusami. Jego zdaniem przemysł filmowy traci wskutek studenckiego piractwa około 3% wpływów.
  11. Na University of Michigan powstało oprogramowanie, które wyszukuje błędy w układach scalonych i proponuje najlepszy sposób ich naprawienia. Może ono przyczynić się do powstania doskonalszych chipów. Błędy w układach to problem, który coraz bardziej dotyczy ich wytwórców. Im bardziej miniaturyzują układy scalone, tym więcej błędów w nich powstaje. Obecnie usunięcie usterek z prototypowego procesora może trwać nawet rok, co znacznie opóźnia jego rynkowy debiut i zwiększa koszty produkcji. Wspomniane oprogramowanie nie tylko skróci cykl produkcyjny i obniży koszty, ale spowoduje też, że na rynek będą trafiały układy z mniejszą liczbą błędow. Profesor Rob Rutenbar z Carnegie Mellon University, tak mówi o błędach: To wciąż nierozwiązany problem. Prawdopodobnie Intel ma jakieś zaawansowane technologie [usuwania błędów – red.], ale o tym nie wspomina. Z tego, co wiemy, błędy takie usuwa się ręcznie. Nie jest to proces mocno zautomatyzowany. Dodaje przy tym, że istnieje bardzo mało fachowej literatury na temat błędów występujących w półprzewodnikach. Z kolei profesor Igor Markov z University of Michigan zauważa, że ręczne usuwanie błędów to metoda bardzo niedoskonała i prawdopodobnie wszystkie układy scalone, które trafiają na rynek, zawierają błędy. Przypomina, że na stronie Intela można znaleźć spis 130 usterek sprzętowych, które występują w laptopach. Większość z nich można usunąć za pomocą odpowiedniego oprogramowania, ale około 20 nie można poprawić. Eksperci zauważają, że obecnie usunięcie błędu jest niezwykle trudne. Gdy już się go zidentyfikuje, to nie zawsze wiadomo, w jaki sposób należy go poprawić. Natura usterek może być bardzo różna – od zbyt blisko siebie wydrukowanych ścieżek, po tranzystory umieszczone w nieodpowiednich miejscach. Po naprawieniu jednej usterki często okazuje się, że jej poprawienie spowodowało powstanie innego błędu. Wprowadzanie poprawek kosztuje kolejne miliony dolarów, co oczywiście odbija się na cenie gotowego produktu. Obecnie podczas testów inżynierowie przepuszczają przez prototyp sygnały elektryczne i szukają w nich nieprawidłowości. Na tej podstawie starają się poprawić układ. Oprogramowanie, które powstało w Michigan, samodzielnie testuje chipy i szuka błędów. Gdy je znajdzie, określa, w których częściach procesora powstały i testuje te części. W ten sposób, wykluczając kolejne fragmenty układu, jest w stanie precyzyjnie określić miejsce, które należy poprawić. Gdy już znajdzie błąd, przeprowadza symulacje różnych metod jego poprawienia i proponuje tę najskuteczniejszą. Profesor Rutenbar mówi, że jedną z największych zalet programu jest fakt, iż podaje on często rozwiązania niezgodne z naszą intuicją. Pewne błędy człowiek naprawiłby zupełnie inaczej, niż proponuje to program. Jednak metody zaproponowane przez oprogramowanie, okazują się równie skuteczne, ale tańsze i szybsze w wykonaniu. Gdyby to człowiek miał zdecydować, raczej nie wpadłby na takie rozwiązanie – mówi Rutenbar. Testy wykazały, że program potrafi znaleźć i naprawić około 70% poważnych błędów. Wyszukiwanie konkretnej usterki zajmuje mu nie, jak ludziom, tygodnie, ale kilka dni.
  12. Aplikacje rozpoznające mowę i przetwarzające ją na tekst pisany popełniają więcej błędów w przypadku głosów żeńskich. Naukowcy prowadzeni przez doktora Syeda Alego postanowili sprawdzić, jak zwiększyć dokładność przekładu i jakie czynniki niekorzystnie wpływają na rozpoznawanie mowy. Dziesięciu rezydentów oddziału radiologii (5 kobiet i 5 mężczyzn) miało nagrać kilka standardowych raportów. Każdy składał się z 2.123 słów. Następnie podlegały one obróbce przez program transkrypcyjny. Potem porównywano tekst oryginalny z tekstem wyświetlanym na ekranie komputera i zliczano popełnione błędy. Odsetek błędów zdefiniowano jako sumę insercji (dostawiania dodatkowych liter czy sylab) i delecji (usunięcia) podzieloną przez ogólną liczbę słów. W populacji męskiej wskaźnik ten wahał się w granicach 0,025-0,139, a w populacji żeńskiej od 0,015 do 0,206. Dr Ali uważa, że większa liczba błędów przekładu u kobiet oznacza, że powinny one więcej ćwiczyć z urządzeniami wyposażonymi w tego typu aplikacje. Sugeruje, że panie mogłyby korzystać z makr czy zmienić styl dyktowania. W zawodzie lekarza błąd może oznaczać uszczerbek na zdrowiu lub nawet utratę życia, więc gra jest zdecydowanie warta świeczki. Więcej na temat opisanego eksperymentu można przeczytać w relacji prasowej American Roentgen Ray Society.
  13. Google załatał w swoim serwisie hostingowym lukę, która pozwalała na przeprowadzenie ataku XSS (cross-site scripting). Umożliwiała ona podejrzenie dokumentów, arkuszy kalkulacyjnych, tematów e-maili oraz historii wyszukiwarki użytkownika. Błąd powstał po tym, jak Google zaktualizował oprogramowanie niektórych swoich usług. Przed kilkoma dniami odkryto inną lukę powstałą po aktualizacji. Pozwalała ona na stworzenie strony internetowej przechowywanej w domenie google.com, za pomocą której można było ukraść ciasteczka (cookie) użytkowników i uzyskać dostęp do wykorzystywanych przez nich serwisów Google’a.
  14. MIT (Massachusetts Institute of Technology) poinformował o znalezieniu krytycznych dziur w stworzonym przez tę uczelnię, szeroko wykorzystywanym protokole uwierzytelniania i autoryzacji Kerberos. Luki pozwalają atakującemu na przejęcie kontroli nad serwerem Kerberosa i uzyskanie dostępu do bazy danych. Możliwe, że cyberprzestępca jest również w stanie dostać się do innych komponentów sieci. Dziury mogą zostać też wykorzystane do przerwania pracy Kerberosa, co z kolei uniemożliwi dostęp do sieci legalnym użytkownikom. Luki odkryto w module kadmind i spowodowana jest ona błędami w komunikacji dokonywanej za pomocą RPC i GSS-API.Cyberprzestępca może wykorzystać kadmind to zainfekowania pamięci szkodliwym kodem i wykonania go. Do przeprowadzenia ataku nie jest konieczne uwierzytelnienie się w systemie. Błąd dotyczy kadmind w wersjach od krb5-1.4 do krb5-1.4.4 oraz od krb5-1.5 do krb5-1.5. Wadliwe jest również oprogramowanie wszystkich producentów korzystających z biblioteki RPC oraz GSS-API w wymienionych powyżej wersjach. Edycje wcześniejsze niż krb5-1.4 są pozbawione błędu. Opublikowano już kod źródłowy łat dla RPC i GSS-API. Ponadto wkrótce MIT udostępni wersję 1.5.2 swojego oprogramowania, która jest pozbawiona błędów.
  15. Można się zastanawiać, dlaczego (mimo lat praktyki i litrów przelanego potu) ludziom nie udaje się osiągnąć doskonałości w dziedzinie, w której się specjalizują. Czemu muzyk nadal myli się przy tysięcznym wykonaniu tego samego utworu, a gracz ligi NBA chybia podczas rzutu za trzy punkty? Badacze z Uniwersytetu w Stanford postanowili zająć się tym zagadnieniem. Okazało się, że niecałkowita perfekcja jest wpisana w nasz mózg. Mózg wyewoluował w taki sposób, że za każdym razem rozważa dany ruch, nawet jeśli był on w przeszłości wykonywany wielokrotnie. Zajmuje to ułamek sekundy, przebiega bez udziału świadomości, ale może wpływać na osiągane rezultaty — tłumaczy Krishna Shenoy (Neuron). Wcześniej przez wiele lat sądzono, że za obserwowane uchybienia odpowiadają mięśnie. Chodzi o to, że nie można za każdym razem tak samo aktywować mięśni. W dodatku mózg za każdym razem planuje ten sam ruch. Studium naukowców ze Stanford obarcza co najmniej połową winy mózg, który obsesyjnie wszystko analizuje, a prowadzi to wielu błędów. Jesteśmy skazani na zmienność w przebiegu ruchu. I to nie tylko dlatego, że mięśnie nie pracują idealnie, ponieważ to nasz mózg, jak się wydaje, nie jest w stanie zaplanować ruchu w dokładnie ten sam sposób. [...] Nikomu się to nie udaje. Naukowcy uważają, że "styl improwizatora" pojawił się w toku ewolucji dlatego, że w większości przypadków stykamy się z nowymi sytuacjami. Drapieżnik nie może na przykład za każdym razem tak samo polować na swoją ofiarę, bo zmieniają się okoliczności. Nie ma zbyt wielu naturalnych sytuacji, kiedy mózg mógłby robić tę samą rzecz ciągle od nowa. Do przetestowania swojej hipotezy badacze wybrali rezusy. W polu przedruchowym ich kory mózgowej umieszczono czujniki. Ten obszar odpowiada za planowanie ruchów. Biolodzy obserwowali działanie tworzących go neuronów, gdy małpa planowała i trenowała wykonanie określonego zadania. Polegało ono na naciskaniu punktów świetlnych, pojawiających się na umieszczonym przed nią ekranie. Mimo że cele i nagrody były ciągle takie same, a ruchy powtarzano setki razy, proces planowania przebiegał w różny sposób (podobnie jak rozłożenie w czasie poszczególnych ruchów). Co ważne, niewielkie różnice w osiąganej prędkości ruchu można było przewidzieć na podstawie obserwacji aktywności neuronów, zanim jeszcze zaczął się jakikolwiek ruch.
  16. Microsoft potwierdził, że Windows Vista może zostać zaatakowany przez szkodliwy kod, który powstał w 2004 roku, zaprzeczył jednak, że jest to wynik błędów w systemie operacyjnym. Przypomnijmy: z testów firmy Sophos wynika, że 3 z 10 sprawdzonych robaków mogą zaatakować Vistę. Microsoft zauważa, że atak jest niemożliwy, gdy użytkownik korzysta z wbudowanego klienta poczty o nazwie Windows Mail Client – następcy Outlook Expressa. Może do niego dojść, jeśli używany jest inny klient poczty. Ponadto infekcja jest możliwa tylko dzięki działaniom użytkownika. To właśnie posiadacz Visty musi uruchomić zarażony plik, by doszło do ataku. A nie ma nic dziwnego w tym, że system operacyjny wykonuje polecenia użytkownika i otwiera plik, który ten sobie życzy otworzyć. Dlatego właśnie zalecamy, by na wszystkich wersjach Windows, także na Windows Vista, używać oprogramowania antywirusowego – mówi Stephen Toulouse menedżer z Microsoftu. Sophos przyznaje, że w Viście nie ma błędu, który pozwala na uruchomienie szkodliwych plików. Firma ostrzegła jednocześnie, że głównym celem cyberprzestępców będzie z pewnością Internet Explorer. Jej specjaliści uważają, że znacznie łatwiej jest nakłonić użytkownika do uruchomienia szkodliwego pliku przesłanego pocztą, niż znaleźć i wykorzystać błąd w systemie operacyjnym.
×
×
  • Dodaj nową pozycję...