Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'komputer'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 79 results

  1. Młodzież, która zbyt dużo czasu spędza przed komputerem, ma więcej ubytków i częstsze problemy z chorobami przyzębia, np. z krwawieniem dziąseł – wynika z analiz naukowców WUM i UKSW, którzy przebadali ponad 1,6 tys. polskich 18-latków. To pierwsze takie badania w Europie. W ramach projektu, którego kierownikiem była prof. Dorota Olczak-Kowalczyk z Warszawskiego Uniwersytetu Medycznego (WUM), przebadano ponad 1,6 tysiąca 18-latków z Polski. Badania polegały zarówno na wypełnieniu kwestionariusza, który zawierał pytania dotyczące statusu społeczno-ekonomicznego i informacji o zachowaniach związanych ze zdrowiem, jak i na ocenie klinicznej stanu zębów i dziąseł. Do badań wybrano szkoły z każdego województwa z powiatów o charakterze wiejskim i miejskim. Okazało się, że nadmierne, czyli trwające ponad 3 godziny dziennie, korzystanie z komputera zadeklarowało 31 proc. respondentów. Równocześnie młodzież ta miała zdecydowanie częściej niewypełnione ubytki – opowiada PAP współprowadzący badania prof. Jacek Tomczyk z Instytutu Ekologii i Bioetyki Uniwersytetu Kardynała Stefana Wyszyńskiego (UKSW) w Warszawie. U nadużywających komputera nastolatków zdiagnozowano średnio 2,27 ubytków, podczas gdy u tych mniej przesiadujących przed ekranem – 1,97. Z ankiety wynika, że osoby z grupy spędzającej przed komputerem najwięcej czasu gorzej dbają o higienę jamy ustnej – np. tylko 34 proc. spośród nich posługuje się nicią dentystyczną, natomiast wśród osób nieprzesiadujących przy komputerze – 41 proc. Również osobom, które zadeklarowały nadmierne korzystanie z komputera, towarzyszyło większe ryzyko chorób przyzębia w postaci krwawienia z dziąseł. Taki symptom w tej grupie odnotowało 35 proc. badanych. Tymczasem wśród respondentów nienadużywających komputera krwawienie występowało u 29 proc. badanych. Tomczyk dodaje, że nadmierne korzystanie z komputera wiąże się również ze złymi nawykami żywieniowymi. Młodzież ta częściej opuszcza śniadania, rzadziej spożywa warzywa i owoce, a częściej spożywa produkty bogate w cukry. Do tej pory wiele badań wskazywało, że nadmierne używanie komputerów może wiązać się z niezdrowym trybem życia – brakiem ruchu, nieregularnymi posiłkami, niezdrowym jedzeniem typu fast-food czy brakiem snu. Takie zachowania skutkują wieloma problemami zdrowotnymi m.in. otyłością czy cukrzycą a nawet zaburzeniami psychicznymi. Otwartym pozostało pytanie o związek między nadmiernym używaniem komputerów, a zdrowiem jamy ustnej. Jedyne takie badania przeprowadzono w Korei Południowej z uwagi na to, że kraj ten ma najwyższy odsetek internautów na świecie. Postanowiliśmy przeprowadzić podobne analizy wśród polskiej młodzieży – opowiada Tomczyk. Czy skala problemu nieodpowiedniej higieny jamy ustnej w Polsce wśród młodzieży nadużywającej komputera jest zbliżona do skali w Korei Płd.? W ocenie naukowca odpowiedź na to pytanie nie jest jasna, bo badania przeprowadzono w nieco inny sposób. Jednak tendencja wyłaniająca się z obu badań jest zbliżona – podkreśla Tomczyk. Naukowiec zapytany przez PAP, w jaki sposób należy walczyć z problemem odpowiada krótko: większa edukacja. Wiadomo, że przesiadywanie przed komputerem sprzyja wielu chorobom, w tym otyłości. Natomiast trzeba pokazywać młodzieży i rodzicom, że do tej plejady chorób należy również zaliczyć – o czym nie wiedziano – niekorzystne zmiany w jamie ustnej – kończy. Wyniki badań przeprowadzonych w 2017 r. w ramach projektu „Monitoring zdrowia jamy ustnej populacji polskiej” ukażą się w czasopiśmie Clinical and Experimental Dental Research. « powrót do artykułu
  2. Ewentualne podobieństwo komputerów do ludzkiego mózgu od dawna fascynowało ludzi: zwykłych śmiertelników, pisarzy, naukowców ogarniętych mitem sztucznej inteligencji. Gdy jedni mówili o podobieństwie, inni uważali, że komputerowi daleko do udawania mózgu człowieka. Problem ten w pewnym sensie rozstrzygnął zespół badaczy z Wielkiej Brytanii, USA i Niemiec. Przeprowadzili oni zaawansowaną analizę i porównanie trzech dobrze znanych typów połączeń sieciowych: w ludzkim mózgu, w komputerowym czipie i w... systemie nerwowym nicieni. Wykorzystano gotowe, istniejące w olbrzymiej ilość dane, jak wyniki obrazowania rezonansem magnetycznym ludzkiego mózgu, mapy systemu nerwowego nicieni i schematy komputerowych układów scalonych. Badano w jaki sposób poszczególne elementy wszystkich struktur połączone są w działającą i efektywną sieć. Wyniki dla niektórych zaskakujące: istnieją wyraźne, istotne analogie między nimi. Trzy podstawowe własności były wspólne dla wszystkich trzech badanych typów sieci. Po pierwsze: zarówno ludzki mózg, układ scalony, jak i układ nerwowy nicienia mają strukturę, którą badacze porównali do rosyjskiej matrioszki: te same wzory rozmieszczenia powtarzają się w coraz mniejszej skali. Po drugie, wszystkie trzy wykazywały właściwość nazwaną skalowaniem rentiana - regułę opisującą liczbę elementów zawartej w danej powierzchni i liczbę połączeń między nimi. Te uderzające podobieństwa wynikają prawdopodobnie z tego, że przedstawiają najbardziej efektywny z istniejących sposób połączenia elementów w sieć w danej przestrzeni, czy to jest dwuwymiarowa powierzchnia układu scalonego, czy trójwymiarowa struktura mózgu - uważa prof. Edward Bullmore, psychiatra z Uniwersytetu w Cambridge. - Ludzie, nicienie i układy scalone dzielą tę właściwość prawdopodobnie z podobnych przyczyn: naturalnej selekcji ewolucji w przypadku tych pierwszych i drugich, komercyjnej presji optymalizacji w przypadku tych trzecich. Wyniki badań pokazują, że nie tylko wciąż możemy się uczyć z dokonań naturalnej ewolucji, ale także, że wyjątkowość człowieka jest mitem: obowiązują go te same, proste zasady doboru i optymalizacji, co pospolite robaki, czy układy elektroniczne. Wyniki badań opublikowano w magazynie „PLoS Computational Biology".
  3. Inspektor Generalny ds. NASA poinformował Kongres, że w latach 2010-2011 agencja doświadczyła 5408 różnych incydentów dotyczących bezpieczeństwa. Jednym z nich było utracenie w marcu ubiegłego roku laptopa zawierającego algorytmy służące do kontrolowania Międzynarodowej Stacji Kosmicznej. Incydenty te dotyczyły bardzo szerokiego spektrum wydarzeń, od osób prywatnych sprawdzających swoje umiejętności i próbujących włamać się do sieci NASA, poprzez dobrze zorganizowane grupy przestępcze włamujące się dla zysku, po ataki, które mogły być organizowane przez obce służby wywiadowcze - czytamy w oświadczeniu Paula Martina. Niektóre z tych ataków dotknęły tysięcy komputerów, powodując zakłócenia prowadzonych misji i zakończyły się kradzieżami danych, których wartość NASA ocenia na ponad 7 milionów dolarów - stwierdzono. Nie wiadomo, jak ma się liczba ataków na NASA do ataków na inne amerykańskie agendy rządowe. Inspektor Generalny ds. NASA jako jedyny spośród kilkudziesięciu inspektorów regularnie zbiera informacje na temat cyberataków z zagranicy. Wśród wpadek Agencji Martin wymienił też zgubienie lub kradzież 48 mobilnych urządzeń komputerowych, które NASA utraciła w latach 2009-2011. Jednym z nich był niezaszyfrowany laptop skradziony w marcu 2011, w którym znajdowały się algorytmy pozwalające na sterownie Międzynarodową Stacją Kosmiczną. Na innych utraconych komputerach znajdowały się dane osobowe czy informacje techniczne dotyczące programów Constellation i Orion. Co gorsza, NASA nie jest w stanie sporządzić szczegółowego raportu na temat utraconych danych, gdyż opiera się na zeznaniach pracowników informujących o zgubionych i skradzionych urządzeniach, a nie na faktycznej wiedzy o zawartości komputerów. NASA wdraża program ochrony danych, jednak, jak zauważa Martin, dopóki wszystkie urządzenia nie zostaną objęte obowiązkiem szyfrowania, dopóty incydenty takie będą się powtarzały.
  4. Sąd Apelacyjny dla Jedenastego Okręgu orzekł, że odszyfrowanie danych na dysku twardym może być uznane za złożenie zeznań. Tymczasem Piąta Poprawka zabrania zmuszania obywateli do składania obciążających ich zeznań. Takie orzeczenie oznacza, że podejrzanego nie można zmuszać do podania hasła do dysku. Orzeczenie takie wydano w sprawie US vs. John Doe. Jest to sprawa o posiadanie pornografii dziecięcej przez niewymienioną z nazwiska osobę. Podejrzany nie został o nic formalnie oskarżony, jednak spędził w więzieniu osiem miesięcy za obrazę sądu, gdyż odmówił podania haseł do siedmiu dysków twardych. Prokuratura podejrzewa, że na dyskach znajduje się dziecięca pornografia. Doe, odmawiając podania haseł, powoływał się na Piątą Poprawkę. Teraz Sąd Apelacyjny potwierdził jego racje i zwolnił go z więzienia. Doe nadal może zostać zmuszony do ujawnienia zawartości dysków, jeśli tylko prokuratura udowodni, że jest on w stanie to zrobić. Jeśli tak się stanie, Doe otrzyma od sądu immunitet, który uniemożliwi prokuraturze wykorzystanie zdobytych w ten sposób informacji przeciwko niemu. Początkowo prokuratura i sąd niższej instancji zagwarantowały Doe, że nie będzie ścigany za upowszechnianie treści z dysków, chciały go jednak sądzić za samo posiadanie treści pedofilskich jeśli takie zostałyby znalezione. Sąd Apelacyjny uznał jednak, że to zbyt skromny immunitet. Orzeczenie Sądu Apelacyjnego nie będzie miało zastosowania do każdej sprawy o odszyfrowanie danych. W omawianym powyżej przypadku prokuratura nie wie, co jest na dyskach. Sąd uznał, że proces podawania hasła nie jest równoznaczny z procesem przekazywania kluczy do drzwi, gdyż wymaga sięgnięcia do pewnej wiedzy zawartej w umyśle i jako taki może być traktowany jako zeznanie. Gdyby jednak prokuratura wiedziała, co znajduje się na dyskach, wówczas podejrzany musiałby ujawnić ich zawartość, gdyż już nawet przed tym ujawnieniem wnioski śledczych byłyby „przesądzone“. Zgodnie z logiką orzeczeń Sądu Najwyższego w takim przypadku przekazanie hasła staje się procesem fizycznym i nie jest uznawane za zeznanie. We wspominanej przez nas wcześniej sprawie przeciwko Ramonie Fricosu prokuratorzy mają wiedzę o zawartości jej dysku twardego z podsłuchów. Trzeba też pamiętać, że orzeczenia Sądu Apelacyjnego są wiążące tylko dla sądów niższej instancji z jego własnego okręgu.
  5. Młode dziewczęta, która spędzają zbyt dużo czasu przy komputerze oraz na obsłudze urządzeń elektronicznych, ryzykują zaburzeniem rozwoju społecznego i emocjonalnego. Na szczęście negatywne efekty takich zachowań można bardzo łatwo zniwelować dzięki rozmowie twarzą w twarz z drugim człowiekiem. Profesorowie Roy Pea i Clifford Nass i ich zespół ze Stanford University zbadali 3461 dziewcząt w wieku 8-12 lat. Przeprowadzili z nimi wywiady, dzięki którym poznali ich zwyczaje dotyczące używania urządzeń elektronicznych oraz ich życie społeczne i emocjonalne. Wyniki były zatrważające - mówi Ness. Dziewczęta - subskrybentki magazynu Discovery Girls - wypełniały onlineowe ankiety, w których musiały szczegółowo wyliczyć ile czasu spędzają na oglądaniu filmów (w telewizji, na komputerze, w kinach), słuchaniu muzyki, czytaniu, odrabianiu lekcji, pisaniu e-maili, pisaniu na Facebooku i MySpace, pisaniu SMS-ów, rozmawianiu przez komunikatory, rozmowach telefonicznych oraz wideorozmowach. Pytano ich również, jak często wykonują co najmniej dwie takie czynności jednocześnie. Badania wykazały, że wielozadaniowość, oglądanie wideo i komunikowanie się w ludźmi przez internet są znacząco statystycznie powiązane z negatywnymi doświadczeniami, takimi jak gorszej jakości życie społeczne, poczucie nie bycia normalnym, posiadanie większej liczby znajomych, o których rodzice sądzą, iż wywierają na badaną zły wpływ oraz zmniejszona liczba godzin snu. Naukowcy podkreślają, że na razie zauważyli oczywisty związek, jednak jeszcze nie znaleźli przyczyn takiego stanu rzeczy, zatem dotychczas nie udowodnili jednoznacznie wynikania. Płynące z badań wnioski są bardzo niepokojące, gdyż wiek 8-12 lat to dla dziewcząt najważniejszy okres rozwoju społecznego i emocjonalnego. Na szczęście naukowcy zadali badanym niezwykle ważne pytanie: jak dużo czasu spędzają na rozmowie z drugim człowiekiem twarzą w twarz. Okazało się, że im więcej czasu poświęcały dziewczęta takim kontaktom, tym lepszej jakości było ich życie społeczne, czuły się mniej wyobcowane, więcej spały i miały mniej znajomych oskarżanych o rodziców, że wywierają na nie zły wpływ. Dlatego też, jak mówią naukowcy, rodzice powinni powrócić do starej metody wychowawczej i powtarzać dzieciom „patrz na mnie, gdy do ciebie mówię“. Ludzie uczą się bowiem interpretowania emocji, patrząc na twarze innych osób. To bardzo trudne zadanie i mało prawdopodobne jest, żeby się go nauczyć, gdy podczas rozmowy dzieci wpatrują się w telewizor, komputer czy wyświetlacz telefonu. Doświadczeń z rozmowy twarzą w twarz nie da się niczym zastąpić. Nowe media i sposób ich wykorzystywania mogą być mylące. Gdy dziecko widzi w serwisie społecznościowym ikonki przedstawiające zadowolonych ludzi, ogląda zdjęcia znajomych, na których są oni uśmiechnięci i ma mało kontaktów twarzą w twarz, może dość do wniosku, że wszyscy wokół są szczęśliwi, z wyjątkiem niego.
  6. W sercu Krzemowej Doliny, symbolu komputeryzacji i nowoczesnych technologii, istnieje szkoła, w której nie znajdziemy ani jednego komputera. Swoje dzieci posyła tam prezes ds. technologicznych eBaya oraz pracownicy takich firm jak Google, Yahoo!, Apple czy HP. Waldorf School of Peninsula to jedna z około 160 szkół Waldorf w USA. W przeciwieństwie do trendów panujących w szkołach na całym świecie, szkoły Waldorf nie mają zamiaru wykorzystywać komputerów, a nawet zachęcają uczniów, by nie używali ich w domu. W szkole korzysta się z tradycyjnych materiałów - papieru, długopisów. Uczniowie uczą się też robienia na drutach i garncarstwa. Zgodnie z filozofią Waldorf School nauka ma być kreatywna, ma być związana z aktywnością fizyczną, doświadczaniem nowych rzeczy i interakcją z innymi ludźmi. Komputery, zdaniem nauczycieli i rodziców, posyłających dzieci do Waldorfa, upośledzają kreatywne myślenie, ograniczają ruch, interakcje pomiędzy ludźmi i źle wpływają na zdolność skupienia uwagi. Odrzucam stwierdzenie, że w szkole konieczna jest technologia. Pomysł, ze aplikacje na iPadzie lepiej nauczą moje dzieci czytania czy liczenia jest śmieszny - mówi 50-letni Alan Eagle, który jest odpowiedzialny w Google'u za komunikację najwyższych rangą menedżerów i m.in. pisze przemówienia dla Erica Schmidta. Jego 10-letnia córka nie wie, jak używać Google'a, a 13-letni syn dopiero się tego uczy. Aż 75% rodziców dzieci uczęszczających do Waldorf School of Peninsula ma ścisłe związki z przemysłem wysokich technologii. Jednak Eagle nie widzi w tym sprzeczności. Uważa, że na wszystko jest czas i miejsce. „Gdybym pracował w Miramaksie i robił świetne, artystyczne filmy dopuszczalne dla osób powyżej 17. roku życia, to nie chciałbym, żeby moje dzieci oglądały je przed ukończeniem 17 lat" - stwierdza. Eagle wspomina, że przed kilkoma dniami jego córka uczyła się operowania drutami. Dzięki nim nabędzie umiejętności rozwiązywania problemów, tworzenia wzorów, nauczy się liczenia i koordynacji. Długoterminowym celem nauki jest... własnoręczne wykonanie skarpetek. Jedną z metod nauki języków obcych jest synchronizacja mózgu i ciała - uczniowie powtarzają za nauczycielem zdania, rzucając jednocześnie do siebie piłką. O tym, czym są ułamki, dzieci nie dowiadują się z ekranu komputera, a samodzielnie kroją jabłka, ciastka i inne pożywienie na ósme, trzecie czy dwunaste części. Bezpośrednie porównanie osiągnięć osób uczących się metodami tradycyjnymi oraz używającymi w szkołach komputerów nie jest łatwe. Szkoły Waldorf, jako szkoły prywatne, nie mają obowiązku wykorzystywania ustandaryzowanych odgórnie opracowywanych testów umiejętności. Ich nauczyciele nie wykluczają, że dzieci z Waldorfa mogą gorzej wypaść w takich testach, gdyż nie trenują ich rozwiązywania, a same testy przygotowywane są pod kątem standardowych szkół. Jednak aż 94% osób, które ukończyły szkoły średnie Waldorf kontynuuje edukację w szkołach wyższych. Jak dowiadujemy się z reportażu w The New York Times, uczniowie podstawówek Waldorfa mają inny stosunek do nowoczesnej technologii niż ich rówieśnicy. Rzadko spędzają czas przed telewizorem, okazjonalnie korzystają z komputera w celach rozrywkowych i denerwuje ich, gdy ich rodzice, znajomi czy krewni poświęcają dużo uwagi urządzeniom, rozmawiając przez telefon czy grając w gry. Jak powiedział reporterowi 11-letni Aurad Kamkar, podczas wizyty u kuzynów nie mógł wytrzymać tego, że razem z czwórką innych dzieci musiał siedzieć przy konsoli i żadne z nich, zajęte grą, nie zwracało uwagi na innych. Dla 10-letniego Finna Heiliga, syna jednego z pracowników Google'a, nauka pisania na papierze ma dodatkową zaletę. Można na bieżąco śledzić swoje postępy. Można przypomnieć sobie, jak brzydkie pismo miało się w pierwszej klasie. Nie zrobi się tego na komputerze, bo tam wszystkie litery są takie same. A poza tym, jeśli umiesz pisać na papierze, to możesz pisać nawet jak woda zaleje komputer albo nie będzie prądu - stwierdza.
  7. Wcześniej niż oczekiwano Chiny przegoniły USA pod względem zarówno liczby sprzedanych pecetów, jak i wartości sprzedaży. Z danych IDC wynika, że w drugim kwartale bieżącego roku w Państwie Środka sprzedano pecety o łącznej wartości 11,9 miliarda USD, podczas gdy mieszkańcy Stanów Zjednoczonych wydali na komputery osobiste 11,7 miliarda dolarów. Chińska sprzedaż pecetów wzrosła o 14,3% rok do roku i wyniosła 18,5 miliona sztuk. W USA sprzedano 17,7 miliona pecetów, czyli o 4,9% mniej niż w analogicznym okresie roku ubiegłego. Chiny stały się tym samym największym rynkiem komputerów osobistych. Wcześniej analitycy uważali, że przegonią one USA dopiero w przyszłym roku. Do dużego zwiększenia sprzedaży pecetów w Chinach przyczyniły się większe niż spodziewane zakupy dokonywane przez sektor rządowy. W tym samym czasie wciąż trwający kryzys ekonomiczny i rosnąca popularność tabletów spowodowały w USA spadek liczby sprzedanych komputerów. USA prawdopodobnie wrócą na pozycję lidera w czwartym kwartale bieżącego roku, w związku ze zwiększonymi zakupami w okresie świątecznym, jednak w przyszłym roku prawdopodobnie na stałe stracą pozycję największego rynku pecetów.
  8. Naukowcy z University of Texas oraz Yale University stworzyli komputer cierpiący na schizofrenię, który pozwala badać kolejne zagadki tej choroby. Początkowo planowali oni użycie programu DISCERN do potwierdzenia teorii na temat schozofrenii, zamiast tego wpadli na nową hipotezę dotyczącą choroby. DISCERN to program, który powstał do przetwarzania i opowiadania krótkich historii. Najpierw do komputera wgrywa się prostą historię, a program próbuje ją zrozumieć i opowiedzieć własnymi słowami. Każda historia, z którą ma do czynienia maszyna, jest poddawana działaniu licznych modułów symulujących połączenia neuronów w mózgu. Na przykład w module pamięci semantycznej znajdują się mechanizmy przetwarzające zdania i historię. System uczy się znaczenia słów sprawdzając, w jakim zostały użyte kontekście. Z kolei w module pamięci roboczej identyfikuje różne części opowieści, stara się je zawrzeć w swoim opowiadaniu. DISCERN ma w założeniu działać jako procesor przetwarzający zarówno słowa jak i emocje. Osoby ze schizofrenią często mylą zasłyszane historie. Mylą kto jest sprawcą, kto ofiarą, przetwarzają opowiadania w bardzo dziwaczne historie, które stają się ich własnymi przeżyciami, stawiają siebie w centrum najbardziej fantastycznych wydarzeń. W innym typie schizofrenii mylą poszczególne opowiadania łącząc je w jedno. Komunikacja z pacjentem, to co on mówi, jest bardzo ważnym narzędziem dla lekarzy zajmujących się schizofrenią. Dlatego też Uli Grasemann z University of Texas oraz Ralph Hoffman, psychiatra z Yale University, postanowili wykorzystać DISCERN do sprawdzenia teorii mówiącej, że schizofrenia jest spowodowana brakiem komunikacji pomiędzy różnymi obszarami w mózgu odpowiedzialnymi za pamięć roboczą. By sprawdzić tę teorię programowi DISCERN mocno ograniczono komunikację z modułem odpowiedzialnym za generowanie opowieści. Nic to jednak nie dało. Uczeni próbowali zatem „uszkodzić" DISCERNA na najróżniejsze sposoby tak, by sprawdzić siedem różnych hipotez dotyczących schizofrenii. Jednak podczas żadnej z prób DISCERN nie stworzył historii podobnej do tych, jaki tworzą cierpiący na schizofrenię. Grasemann postanowił zatem poddać generator historii DISCERNA dłuższemu treningowi w nadziei, że w programie pojawi się nieznane dotychczas zachowanie, które zostanie wykorzystane podczas kolejnych eksperymentów. Ponadto trenował program tak, by przywiązywał on większą wagę do tego, czego się dowie. Następnie DISCERN zapoznano z opowiadaniem o terroryście imieniem Tony, który podłożył bombę w ratuszu miejskim. DISCERN opowiedział historię w pierwszej osobie. Program opowiadał też w pierwszej osobie o przestępczym bossie Vito czy przekazywał jego tożsamość innym osobom. Jednak gdy Grasemann rozszerzył trening na dekoder pamięci systemu, program zaczął zachowywać się zupełnie inaczej. Zaczął gubić wątki opowieści, mieszać je ze sobą. Gresmann zmieniał ten sam parametr w różnych miejscach pamięci, uzyskując zarówno iluzje jak i nieuporządkowaną mowę typową dla schizofrenii. Naukowcy szybko spostrzegli, że znaleźli coś ważnego. Hoffman sformułował hipotezę o przeuczeniu się. Według niej w okresie intensywnej nauki mózg może przywiązywać zbyt dużą uwagę do nowych rzeczy, co wywołuje iluzje i nieuporządkowaną mowę. Hipoteza ta jest podobna do dobrze znanej teorii mówiącej o tym, iż zwiększone przekazywanie dopaminy ma wpływ na powstanie schizofrenii. W niektórych obszarach mózgu dopamina ogrywa ważną rolę w nadawaniu informacjom odpowiedniej wagi. Jeśli obszary te stają się nadaktywne, człowiek może mieć poczucie, że wszystko ma jakieś istotne znaczenie, które nie do końca rozumie. Teoria mówi, że tworzenie iluzji może wówczas być strategią pozwalającą na poradzenie sobie z tymi tajemniczymi informacjami. To nie jest tak, że pamiętasz różne rzeczy lepiej. Pamiętasz rzeczy, które nie są ze sobą związane. Tworzysz niewłaściwe związki pomiędzy nimi - wyjaśnia neurolog Alexander Arguello z Princeton University. DISCERN jest pierwszym modelem komputerowym, za pomocą którego można było przyjrzeć się językowi i narracjom występującym w schizofrenii.
  9. Każdy, kto miał do czynienia z komputerem wie, że podczas pracy urządzenie to emituje ciepło. Tymczasem fizycy teoretyczni doszli do wniosku, że procesy obliczeniowe mogą czasem nie tylko nie generować ciepła, ale nawet chłodzić. Profesor Renato Renner ze Szwajcarskieg Instytut Technologii (ETH) i Vlatko Vedral z Narodowego Uniwersytetu Singapuru i University of Oxford wraz z kolegami opisali w piśmie Nature w jaki sposób usuwanie danych może wywoływać efekt chłodzenia zamiast generować ciepło. Uczeni zauważyli, że w pewnych warunkach gdy pojawia się kwantowe splątanie, dochodzi do chłodzenia. Niewykluczone, że możliwe będzie wykorzystanie tego efektu do chłodzenia superkomputerów. Uzyskanie kontroli na poziomie kwantowym, co jest konieczne do wykorzystania tego zjawiska do chłodzenia superkomputerów, będzie trudne ale nie niemożliwe. W ciągu ostatnich 20 lat byliśmy świadkami olbrzymiego postępu w technologiach kwantowych - mówi Vedral. Już dzisiaj, jego zdaniem, technika pozwala na przeprowadzenie eksperymentu z udziałem kilku bitów, który pozwoliłby na potwierdzenie teoretycznych obliczeń. W roku 1961 Rolf Landauer, fizyk pracujący dla IBM-a sformułował swoją zasadę mówiącą, że wymazanie bitu informacji wymaga utraty energii w postaci ciepła. Wykazał też, że istnieje fizyczna granica minimalnego wydatku energii potrzebnego do wykasowania informacji. A to z kolei oznacza, że nadejdzie chwila, w której nie będzie możliwe zmniejszenie produkcji ciepła, co przy rosnącym zagęszczeniu układów elektronicznych i ich coraz bardziej wydajnej pracy oznacza, iż będą one produkowały coraz więcej ciepła. Obecnie taka sytuacja nam nie grozi, ale profesor Renner przewiduje, że granicę wyznaczoną przez Landauera możemy osiągnąć w ciągu 10-20 lat. Ciepło generowane przez usuwanie danych z 10-terabajtowego HDD liczone jest w milionowych częściach dżula. Jednak ilość ta sumuje się, gdy wykonujemy wielu operacji kasowania w ciągu sekundy. Naukowcy dodali do zasady Laudauera rozważania na temat wartości kasowanego bitu. Jeśli znamy zawartość komórki pamięci, którą kasujemy, to teoretycznie możliwe jest usunięcie bitu w taki sposób, że możliwe będzie jego odtworzenie. Już wcześniej dowiedziono, że tego typu „odwracalne" kasowanie nie generuje ciepła. W swoich rozważaniach Renner i Vedral posuwają się o krok dalej. Dowiedli oni teoretycznie, że jeśli kasowany bit jest kwantowo splątany ze stanem obserwatora, obserwator może wycofać energię cieplną z systemu w czasie usuwania bitów. A to oznacza, że kasowanie będzie chłodziło komputer. Aby dojść do takich wniosków uczeni połączyli to, co na temat entropii mówią teoria informacji i termodynamika. W teorii informacji entropia to wynik pomiaru gęstości informacji. Dzięki niej dowiadujemy się np. jaką ilość miejsca w pamięci zajmie dana informacja po optymalnym skompresowaniu. W termodynamice entropia związana jest z nieuporządkowaniem systemu, np. rozłożeniem molekuł w gazie. Zwiększanie entropii wiąże się tutaj zwykle z dodawaniem energii w postaci ciepła. Profesor Renner stwierdza: Wykazaliśmy, że w obu przypadkach na poziomie mechaniki kwantowej entropia opisuje to samo zjawisko. W obu przypadkach należy ją rozważać jako brak wiedzy. Należy przy tym wziąć pod uwagę fakt, że obiekt nie ma stałej entropii, ale zależy ona od obserwatora. Jeśli zatem dwie osoby będą usuwały te same dane, ale jedna z nich będzie miała większą wiedzę o danych, to będzie postrzegała je jako posiadające mniejszą entropię, a zatem będzie mogła użyć mniej energii do ich usunięcia. W fizyce kwantowej entropia może czasem przybierać wartość ujemną. Na gruncie fizyki klasycznej posiadanie idealnych informacji o systemie oznacza, że obserwator uznaje, iż entropia systemu jest zerowa. Jednak splątanie daje obserwatorowi wiedzę większą niż kompletna, gdyż korelacje kwantowe są silniejsze niż klasyczne. A to prowadzi nas do wniosku, że entropia ma wartość ujemną. Zatem na gruncie fizyki klasycznej kompletna wiedza o pamięci komputerowej pozwala usunąć informacje bez wydatkowania energii. Teraz naukowcy pokazali, że przy splątaniu kwantowym i posiadaniu informacji większej niż kompletna usuwanie danych związane jest z wycofaniem ciepła z systemu i zamianę go na użyteczną formę energii. Renner podkreśla jednak, że nie ma mowy o stworzeniu w ten sposób perpetuum mobile. Dane usuwane są tylko raz, więc nie można z nich ciągle tworzyć energii. Ponadto ich usunięcie prowadzi do zaniku splątania kwantowego i konieczne jest dostarczenie energii, by system powrócił do stanu pierwotnego. Działamy na granicy drugiej zasady termodynamiki. Jeśli ruszysz się o krok dalej to je złamiesz - stwierdził Vedral.
  10. Naukowcy połączyli używanie alkoholu przez młodzież z czasem spędzanym przez komputerem. Odkryli bowiem, że nastolatkowie pijący alkohol poświęcają komputerowi więcej czasu niż ich niepijący rówieśnicy. Badania zostały przeprowadzone przez doktor Jennifer Epstein z Weill Cornell Medical College i wykorzystano w nich dane z anonimowej ankiety wypełnionej przez 264 nastolatków w wieku 13-17 lat. Konkretne czynniki łączące alkohol i wykorzystywanie komputera przez młodzież są są jeszcze znane. Być może młodzi ludzie eksperymentują z alkoholem tak, jak eksperymentują z różnymi rodzajami aktywności w internecie. A to z kolei może powodować, że natykają się w sieci na reklamy alkoholu, poznają na serwisach społecznościowych osoby używające alkoholu, co z kolei wzmacnia ich chęć sięgania po tę używkę - mówi doktor Epstein. Badania wykazały, że ci młodzi ludzie, którzy przyznali, że w ciągu ostatniego miesiąca pili alkohol, spędzają przed komputerem więcej czasu na zajęciach niezwiązanych z obowiązkami szkolnymi. Picie alkoholu było też związane z częstszym korzystaniem z portali społecznościowych oraz pobieraniem i słuchaniem muzyki z internetu. Nie stwierdzono silnego związku pomiędzy piciem a grami komputerowymi czy internetowymi zakupami. Nie zauważono też związku, pomiędzy używaniem alkoholu a używaniem komputera do celów związanych z nauką. Doktor Epstein chce teraz przeprowadzić długotrwałe i bardziej szczegółowe badania dotyczące związków pomiędzy używaniem alkoholu a komputera. W USA przeciętny nastolatek ma pierwszy kontakt z alkoholem w wieku 12-13 lat. Nie od dzisiaj wiadomo, że wpływ rodziny, np. brak opieki, zła komunikacja, konflikty, uzależnienia rodziców, są czynnikami ryzyka zwiększającymi podatność dzieci na sięganie po używki.
  11. Na kanadyjskim Queen's University powstał rewolucyjny interaktywny papierowy komputer. Jego twórca, Roel Vertegaal porównuje go do elastycznego iPhone'a. To przyszłość. Za pięć lat wszystko będzie wyglądało i będzie używane w taki właśnie sposób. Ten komputer wygląda, zachowuje się i pracuje jak niewielki kawałek interaktywnego papieru. Pracujesz z nim zginając go w kształt telefonu komórkowego, wyginając róg by przewrócić kartkę lub też pisząc na nim za pomocą długopisu - mówi Vertegaal. PaperPhone robi to wszystko, co współczesny smartfon - może przechowywać książki, odtwarzać muzykę, nawiązywać połączenia elektroniczne. Jest przy tym elastyczny, oferuje 9,5-calowy cienki wyświetlacz z technologią e-ink. Oficjalna premiera PaperPhone'a będzie miała miejsce 10 maja podczas konferencji Computer Human Interaction 2011. Doktor Vertegaal mówi, że jego wynalazek pozwoli np. pozbyć się z biur tradycyjnego papieru. Wszystko może być przechowywane w formie cyfrowej, a komputery PaperPhone można po prostu układać jeden na drugim jak kartki papieru czy też porozkładać na biurku - stwierdza. W pracach nad rewolucyjnym komputerem brali udział uczeni z Arizona State University, Queent University oraz E Ink Corporation. http://www.youtube.com/watch?v=Rl-qygUEE2c
  12. Już wkrótce miłośnicy komputerów, a raczej ich historii, będą mogli kupić peceta w obudowie jednej z legend IT - Commodore'a 64. Jego twórcą jest firma Commodore. Maszyna została wyposażona w system Windows 7 oraz emulator umożliwiający uruchomienie gier ze swojego protoplasty. Producent już zbiera zamówienia na C64x. Komputery wycenione na 595 USD będą dostarczane pomiędzy majem a czerwcem. Później pojawią się też w sklepach. Commodore 64x zostanie wyposażony w dwurdzeniowy procesor Atom D525 taktowany zegarem 1,8 GHz, zintegrowaną kość graficzną Nvidii. Komputer będzie sprzedawany w pięciu różnych konfiguracjach. Za najlepiej wyposażoną edycję Ultimate, z napędem Blu-ray, 4 gigabajtami pamięci RAM i 1-terabajtowym dyskiem twardym trzeba będzie zapłacić 900 USD.
  13. Chiński uczony Yong Wang z Uniwersytetu Elektroniki i Technologii w Chengdu we współpracy z naukowcami z amerykańskiego University of Evanston opracował technologię, pozwalającą na określenie fizycznego położenia komputera łączącego się z internetem z dokładnością do 690 metrów. Znacznie zatem zawęzili krąg poszukiwań, gdyż dotychczas można było określić położenie z dokładnością do 35 kilometrów. Uczeni wykorzystali położenie uczelni wyższych oraz przedsiębiorstw do uzyskania tak wysokiej dokładności. Skorzystali przy tym z faktu, że instytucje te często hostują swoje witryny na własnych serwerach znajdujących się w siedzibie firmy czy uczelni. Zatem w ich przypadku adres IP jest ściśle powiązany z lokalizacją. Poszukiwanie interesującego nas komputera odbywa się w trzech etapach. Najpierw badany jest czas, w jakim pakiety wysyłane z naszego komputera dotrą do maszyny docelowej. To umożliwia zawężenie kręgu poszukiwań do około 200 kilometrów. Następnie pakiety wysyłane są do serwera, którego fizyczna lokalizacja jest znana z Google Maps. Dzięki temu można sprawdzić, przez jakie węzły sieci przechodzi sygnał. Mierząc czas przejścia pakietu pomiędzy węzłami, można zbadać dzielące je odległości i jeszcze ściślej określić położenie komputera docelowego. Trzeci etap polega na szczegółowym badaniu opóźnień pomiędzy poszczególnymi ruterami oraz pomiędzy nimi a serwerem referencyjnym. Metoda nie jest idealna, a wartość 690 metrów to uśrednienie dla różnych pomiarów. Jednak w sprzyjających warunkach pozwala na określenie miejsca położenia poszukiwanego komputera nawet z dokładnością do 100 metrów. Yong Wang mówi, że do przeprowadzenia poszukiwań nie jest potrzebne żadne współdziałanie ze strony właściciela szukanego komputera, zatem może on nic o nich nie wiedzieć. Przed tego typu działaniami obroni nas jednak korzystanie z serwera proxy. Wang przyznaje, że nie jest w stanie sobie poradzić z tego typu zabezpieczeniem. Może jednak wykrywać proxy, zatem w najgorszym wypadku nie uzyska żadnej odpowiedzi, a nie da się nabrać na fałszywą. Metoda Wanga raczej nie przyda się policji czy służbom specjalnym, ale może być przydatna dla firm reklamowych, które będą mogły wyświetlać reklamy mieszkańcom konkretnych ulic.
  14. Australijczycy skonstruowali uprząż, która pozwala na zdalne sterowanie psem, który nie widząc opiekuna, może wykonywać skomplikowane zadania (Personal Ubiquitous Computing). Z naszym systemem nie trzeba się znajdować w zasięgu wzroku psa – podkreśla prof. David M. Bevly z Auburn University. Kiedyś urządzenia do zdalnego sterowania testowano na innych gatunkach zwierząt, poza tym wymagały one wszczepiania elektrod. Tymczasem zespół z antypodów wpadł na pomysł rozwiązania całkowicie zewnętrznego, które pozwala kierować w czasie rzeczywistym wytrenowanymi psami. W skład uprzęży wchodzą GPS, czujniki, procesor i modem radiowy, który łączy się bezprzewodowo z komputerem. Plecaczek lekko wibruje po prawej lub lewej stronie i wydaje różne dźwięki. System przetestowano na labradorze o imieniu Major, uczestniku programów wdrażanych przez uczelniany Canine Detection Research Institute. Okazało się, że psu często udawało się dotrzeć do celu oddalonego o kilkaset metrów. Major podążał we właściwym kierunku przez 80% czasu, a komputer wydawał właściwe polecenia w 99% sytuacji. Obecnie zespół prowadzi testy z przeprowadzaniem psa przez bardziej złożone zadania, a także na większe odległości (od 5 do 6,5 km). Bevly widzi wiele zastosowań dla swojego wynalazku. Wspomina o wysyłaniu psów na tereny działania karteli narkotykowych czy z lekami do żołnierzy na polu walki. Dzięki uprzężom jedna osoba mogłaby też na lotnisku, przejściu granicznym itp. zawiadywać działaniami wielu czworonogów. William Helton z Uniwersytetu w Canterbury, specjalista ds. ergonomii psów, dodaje, że mając wgląd w ruchy psa, opiekun czy trener będzie wiedzieć, czy jego pupil nie jest np. zbyt zdenerwowany lub czy nie stracił z jakiegoś powodu zainteresowania zadaniem.
  15. Francuski rząd rozważa wprowadzenie dodatkowego podatku w wysokości 12 euro na każdy tablet. Zebrane w ten sposób pieniądze mają być przekazywane właścicielom praw autorskich w ramach rekompensaty za straty spowodowane piractwem. Tablety miałyby zatem zostać opodatkowane w tym samym celu, w jakim płacone są podatki za czyste płyty CD czy odtwarzacze MP3. Rządowa propozycje jest tym bardziej kuriozalna, że z opodatkowania wyłączone byłby tablety z zainstalowanym systemem Windows. Urzędnicy doszli bowiem do wniosku, że taki tablet jest komputerem, a te nie są objęte dodatkowym podatkiem. Tablety z innymi systemami nie są, zdaniem urzędników, komputerami. Nowe prawo ma wejść w życie 12 stycznia.
  16. W wielu instytutach badawczych trwają prace nad wykorzystaniem bakterii do budowy komputera, a zatem stworzenia czegoś w rodzaju znanej ze Star Treka rasy Borgów - kolektywnych umysłów składających się z wielu organizmów. Christopher A. Voigt wraz z kolegami z University of California w San Francisco, zaprezentował w jaki sposób można wykorzystać odpowiednio zmodyfikowane bakterie E.coli do stworzenia prostej maszyny liczącej. Zespół Voigta najpierw zmodyfikował E.coli tak, by wydzielały dwa rodzaje składników, pierwszy działający jak "1" lub "on", a drugi jak "0" lub "off". Zmodyfikowano też procesy sygnałowe zachodzące w E.coli, zmieniając w ten sposób bakterię w bramkę logiczną. I tak, na przykład, gdy genetyczny profil bakterii został skonfigurowany tak, by była ona bramką "AND", to po otrzymaniu sygnału "on" od obu sąsiadów, bakteria wyemituje składnik "on". Jeśli zaś była skonfigurowana jako "XOR", wyemituje sygnał "off". W ten sposób bakterie mogą stać się podzespołami maszyny liczącej. Myślimy o prądzie elektrycznym jak o czymś, za pomocą czego możemy wykonywać obliczenia. Ale tak naprawdę wszystko może działać jak komputer, koła zębate, rury z wodą czy biologiczne komórki. Tutaj mamy kolonię bakterii, które mogą otrzymywać sygnały chemiczne od sąsiadów i tworzyć bramki logiczne na tej samej zasadzie, jak tworzone są one w krzemie - stwierdził Voigt. Bakteryjne bramki logiczne są wielokrotnie większe od tych, które powstają obecnie w fabrykach korzystających z 32-nanometrowego procesu produkcyjnego. Jednak zaletą bakterii jest ich możliwość samonaprawy, przeprogramowywania oraz potencjalnie łatwiejsze tworzenie struktur 3D. Obecnie profesor Voigt pracuje nad stworzeniem bakteryjnego komputera zdolnego do przyjmowania komend w podobny sposób, jak przyjmują je tradycyjne komputery.
  17. W ofercie Vobis pojawił się nowy komputer typu "wszystko w jednym" firmy Lenovo - model A310-2. Urządzenie wyróżnia się niecodziennym, oryginalnym wzornictwem oraz zastosowaniem najnowocześniejszych komponentów - m.in. procesora Intel Core i3 oraz 21,5-calowego, dotykowego monitora Full HD. A310-2 to komputer stacjonarny dla estetów - urządzenie w niczym nie przypomina standardowych, nudnych "pecetów". Obudowa najnowszego dzieła Lenovo wykonana jest z białego tworzywa sztucznego, ozdobionego metalowymi elementami - całość przypomina produkty Apple'a. Na pierwszy rzut oka najnowszy komputer Lenovo wygląda jak klasyczny - aczkolwiek bardzo elegancki - monitor LCD. Dopiero po bliższym przyjrzeniu się zobaczymy, że w jego podstawę wbudowano w pełni funkcjonalny komputer PC. Wyposażono go m.in.: w procesor Intel Core i3, 4 GB pamięci RAM, dysk twardy o pojemności 500 GB oraz zintegrowany układ graficzny. Co ważne, wbudowany ekran jest dotykowy - dzięki temu aplikacjami możemy sterować dotykając wyświetlacza. Znajdziemy tu również cztery porty USB 2.0, wyjście HDMI (przydatne, gdy zechcemy np. obejrzeć film na ekranie telewizora) oraz port FireWire. Konfigurację uzupełniają m.in.: moduł bezprzewodowej sieci WiFi oraz Bluetooth, wbudowany czytnik kart pamięci a także głośniki. W zestawie z komputerem nabywca znajdzie również stylową klawiaturę i mysz. Oczywiście oba urządzenia komunikują się z "pecetem" bezprzewodowo - a to znaczy, że użytkownik uniknie plątaniny kabli na biurku i pod nim. Do Lenovo A310-2 wystarczy bowiem doprowadzić tylko jeden przewód - zasilający. Wszystkie inne są zbędne. Komputer, wraz z Windows 7 Home Premium, kosztuje w sklepach Vobis 3999 pln.
  18. Zespół australijskich naukowców pracujących pod kierunkiem Stephana Wintera rozpoczął trzyletni program badawczy, którego celem jest usprawnienie rozumienia lokalizacji geograficznej przez komputery. Program wartości 500 tysięcy dolarów jest częściowo finansowany przez Victorian Emergency Services Telecommunication Authority. Jego menedżerowie mają nadzieję, że usprawni on system ratownictwa. Stephan Winter wyjaśnia, że bardzo często świadkowie wypadków dzwoniący do służb ratowniczych są tak zestresowani, że nie podają dokładnego adresu zdarzenia, a mówią, iż miało ono miejsce "na skrzyżowaniu koło fontanny". Komputery nie są w stanie zrozumieć takich opisów. Współczesne systemy informatyczne potrzebują dokładnych określeń i nie radzą sobie z takim opisem otoczenia, jakim my posługujemy się na codzień. To z kolei opóźnia przybycie służb ratunkowych, gdyż operator sam musi dowiedzieć się, koło którego skrzyżowania jest fontanna. Interesującą próbą uzyskania lokalizacji na podstawie opisu jest technologia wykorzystana w Google Maps. Jednak, jak zauważa Winter, "to dobrze wygląda z wierzchu. Gdy się spojrzy głębiej, jest ona wciąż bardzo prymitywna". Dlatego też uczeni postanowili wdrożyć projekt, do którego będą mogli przystąpić użytkownicy telefonów z systemami iOS i Android. Ma ich do tego zachęcić "gra" przystosowana do współpracy ze standardowymi przeglądarkami instalowanym w tych systemach. Celem "gry" jest oznaczanie miejsc, w których znajduje się użytkownik, i ich jak najdokładniejsze opisywanie. W ten sposób uczeni chcą zgromadzić olbrzymią bazę danych wykonanych przez ludzi opisów, które następnie zostaną przeanalizowane, co powinno odpowiedzieć na pytanie, w jaki sposób człowiek opisuje miejsca i jak można nauczyć komputer ich rozpoznawania. Winter nie chce jednak, by komputer kiedykolwiek zastąpił operatora w centrali. Chcemy, by komputery służyły operatorom lepszą pomocą. Myślę, że operatorem powinien być człowiek, gdyż dzwoniący są w tak dużym stresie, że mogą nie znieść rozmowy z komputerem.
  19. Dla człowieka układanie puzzli nie stanowi większego problemu, jednak dla komputera jest to prawdziwe wyzwanie. Zespół z Massachusetts Institute of Technology pracujący pod kierunkiem Taeg Sang Cho pobił właśnie rekord świata w układaniu puzzli przez komputer. Maszyna założyła obrazek składający się z 400 elementów. Poprzedni rekord - 320 puzzli - należał od 2008 roku do duńskiego zespołu. Jednak waga osiągnięcia naukowców z MIT-u to nie tylko 80 puzzli więcej. Komputer Duńczyków był w stanie układać puzzle ze sceną jak z filmu rysunkowego, z bardzo dobrze wyznaczonymi kształtami i o ograniczonej liczbie kolorów. Amerykański algorytm układa dowolny obrazek. Uczeni z MIT-u podzielili 5-megabajtowy obraz na 400 części. Następnie komputer rozpoczął analizę kolorów, by określić, co może przedstawiać oryginał. Po analizie porównywał kolorystykę z obrazami z bazy danych. Dzięki temu mógł określić, że np. jeśli dominują kolory błękitny, zielony i szary, to oryginalny obraz przedstawia krajobraz z niebem i roślinnością. Komputer analizował też kolory na krawędziach puzzli, by określić, które kawałki powinny ze sobą sąsiadować. Algorytm okazał się na tyle doskonały, że ułożył puzzle w ciągu 3 minut. Taeg Sang Cho ma nadzieję, że przyszłości podobne algorytmy ułatwią pracę z programami graficznymi. Przeciętny użytkownik np. Photoshopa będzie mógł przenieść obiekt z jednego końca grafiki na drugi, a komputer zajmie się dobraniem odpowiednich wartości kolorów czy nasycenia tak, by przeniesiony obiekt pasował do otoczenia. Pracę Amerykanów pochwalił Klaus Hansen, który był autorem poprzedniego rekordu. Stwierdził, że użyli oni bardzo interesującego algorytmu, a ponadto mieli trudniejsze zadanie niż on. Zespół z MIT-u nie podzielił bowiem swojego obrazka w nieregularne kształty tradycyjnych puzzli, tylko w identyczne kwadraty. To znacząco utrudniało odtworzenie grafiki.
  20. W przyszłym tygodniu podczas konferencji nt. bezpieczeństwa, która odbędzie się w Oakland, naukowcy z University of Washington i University of California, San Diego, omówią szczegółowo odkryty przez siebie sposób zaatakowania nowoczesnego samochodu i zablokowania jego hamulców, zmianę odczytów prędkościomierza czy zamknięcia pasażerów wewnątrz pojazdu. Testy, podczas których naukowcy przejmowali kontrolę nad samochodem, odbyły się pod koniec ubiegłego roku na jednym z nieczynnych lotnisk. Naukowcy podłączyli laptop do komputera samochodu i za pomocą łączy bezprzewodowych, z jadącego obok pojazdu, byli w stanie uniemożliwić hamowanie, wyłączyć silnik czy doprowadzić do nierównomiernej pracy hamulców, co przy dużych prędkościach z łatwością może zakończyć się wypadkiem. Stefan Savage i Tadayoshi Kohno informują jednocześnie, że obecnie przeprowadzenie podobnego ataku jest mało prawdopodobne. Napastnik musi nie tylko uzyskać dostęp do samochodu, by zamontować w nim komputer, ale powinien być również świetnym programistą. Obaj naukowcy mówią jednak, że przemysł samochodowy powinien brać pod uwagę względy bezpieczeństwa także jeśli chodzi o możliwość włamania do systemów elektronicznych. Ponadto, jak zauważają, projektanci samochodów chcą je wyposażyć w coraz bardziej zaawansowaną elektronikę i łączność bezprzewodową, co w przyszłości może zwiększyć prawdopodobieństwo ataków. Savage i Kohno, rozpoczynając swoje testy, spodziewali się, że będą musieli bardzo mocno zaangażować się w odwrotną inżynierię i poszukiwanie błędów w oprogramowaniu samochodowych komputerów. Tymczasem przejęcie kontroli nad najważniejszymi funkcjami pojazdu okazało się niezwykle łatwe. Wystarczyło dobrze zapoznać się z systemem Controller Area Network (CAN), który jest obowiązkowym narzędziem diagnostycznym dla wszystkich samochodów w USA wyprodukowanych po roku 2007. Następnie napisali program CarShar, który nasłuchuje komunikacji z CAN i wysyła swoje własne pakiety. W ten sposób dowiedzieli się, jak można przejąć kontrolę nad pojazdem - od silnika i hamulców, poprzez klimatyzację i zamek centralny, po system nagłaśniających. Co więcej naukowcom udało się podmienić firmware samochodowego komputera bez konieczności przechodzenia procesu autoryzacji. Przemysł samochodowy zapewniał dotychczas, że jest to niemożliwe.
  21. Uspokajamy osoby niechętne nowinkom: jeszcze nie. Leczenie człowieka przez komputer to nadal odległa przyszłość, ale właśnie postąpiliśmy jeden krok w tym kierunku. Opracowany przez zespół australijskich naukowców komputerowy model diagnostyczny okazał się już lepszy w ocenianiu przyczyn gorączki u dzieci w wieku do pięciu lat. Nagła gorączka, przekraczająca 38°C, to częsty objaw u małych dzieci. Niestety, zwykle trudno określić jej przyczynę, a to podstawa skutecznego i bezpiecznego leczenia. Trudności w odróżnieniu poważnych chorób, jak zapalenie płuc od niegroźnych infekcji bakteryjnych czy wirusowych, które ustąpią same jest przyczyną zbyt późnego rozpoczęcia leczenia z jednej strony, albo niepotrzebnego przepisywania antybiotyków w innych przypadkach. Dotychczasowe procedury i systemy diagnozowania mają swoje ograniczenia, dlatego postanowiono zaprząc do diagnostyki opracowany model komputerowy. Test był zakrojony na szeroką skalę. Przez dwa lata badaniami objęto ponad 15 tysięcy dzieci w wieku do pięciu lat, przyprowadzane do przychodni dużego szpitala dziecięcego. W porównaniu uwzględniano dzieci z gorączką przynajmniej 38°C, nie chorujące na przewlekłe choroby. Wszystkie były badane według typowego postępowania lekarskiego, obecność bakterii potwierdzano standardowymi testami. Wyniki i symptomy były potem łączone z komputerowym modelem diagnostycznym, zaś wyniki obu typów porównywano. Model komputerowy w każdym przypadku okazywał się równie dobry, lub lepszy od standardowej procedury przeprowadzanej tylko przez człowieka. Według zgromadzonych danych, poważne zakażenia bakteryjne to około 7% przypadków dzieci z gorączką, ale jedynie 70-80% z nich miało przepisywane antybiotyki podczas wstępnego badania. Ponieważ trafna diagnoza to aż 95% tych przypadków, początkowy brak odpowiedniego leczenia tłumaczy się tym, że część lekarzy standardowo czeka z przepisaniem antybiotyków do momentu potwierdzenia infekcji przy pomocy testów: w dwóch trzecich przypadków antybiotyki przepisywano później. Z kolei około 20% dzieci bez ostatecznie potwierdzonego rozpoznania poważnej choroby było leczone antybiotykami bez potrzeby. Zbędne używanie antybiotyków jest groźne nie tylko z powodu ich szkodliwości, ale również dlatego, że powoduje powstawanie nowych szczepów bakterii, które na antybiotyki są uodpornione. A bakterie niestety uodparniają się szybciej, niż przemysł farmaceutyczny jest w stanie wymyślać nowe leki. Dlatego trafna diagnoza i odpowiednie leczenie jak najszybciej jest takie ważne. Połączenie standardowych procedur diagnostycznych z modelem statystycznym pokazało - mówią autorzy badań - że komputerowy model pozwoli na polepszenie skuteczności i bezpieczeństwa leczenia dzieci z gorączką i podejrzeniem poważnych infekcji. Jednak przed masowym wprowadzeniem go do użycia potrzeba jeszcze wielu praktycznych badań i ostatecznych wyników, dowodzących jego skuteczności w leczeniu. Tym niemniej jest to może pierwszy zwiastun czasów, kiedy lekarz będzie współpracował z komputerem.
  22. Z przeprowadzonych analiz wynika, że zdecydowana większość komputerów korzystających z systemu Windows 7 wykorzystuje niemal całą dostępną pamięć operacyjną, co skutkuje spadkiem ich wydajności. Craig Barth, szef firmy Devil Mountain Software, ujawnił dane uzyskane z ponad 20 000 komputerów podłączonych do Exo.performance.network (XPnet). Wynika z nich, że 86% maszyn z Windows 7 podłączonych do XPnet wykorzystuje 90-95% dostępnej pamięci RAM. To dwukrotnie większy odsetek niż w przypadku Windows XP, gdzie punkt nasycenia pamięci osiąga około 40% komputerów. Tak duże zużycie pamięci operacyjnej źle wpływa na wydajność komputera, gdyż musi on często korzystać z pamięci wirtualnej, a więc odwoływać się do dysku twardego. Przeciętny komputer w Windows 7 ma do dyspozycji 3,3 GB RAM. To niemal dwukrotnie więcej niż przeciętna maszyna z Windows XP (1,7 GB). To pokazuje jak złożony jest Windows 7 - mówi Barth. Niestety, na podstawie danych z XPnet nie można stwierdzić, czy większe zużycie pamięci wynika z zapotrzebowania systemu operacyjnego czy też z bardziej intensywnego wykorzystywania innych aplikacji. Devil Mountain Software było jednak w stanie określić użycie procesora oraz urządzeń wejścia-wyjścia. Także i tutaj zauważono spory wzrost. W przypadku Windows 7 aż 85% komputerów wykorzystuje niemal wszystkie zasoby I/O, w przypadku XP odsetek ten wynosił 36%. Z kolei 44% komputerów z Windows 7 maksymalnie obciąża procesor, a w przypadku Windows XP jest to 36%. Zdaniem Bartha są to wartości alarmujące. To zadziwiające, że system operacyjny tak szybko zbliża się do granic wydajności sprzętu. Windows 7 nie jest, jak można było się spodziewać, odchudzoną Vistą. Barth zauważa, że od lat sytuacja wyglądała w taki sposób, iż możliwości oprogramowania pozostawały daleko w tyle za możliwościami sprzętu i przeciętny użytkownik nie był w stanie wycisnąć wszystkiego ze swojej maszyny. Teraz to się najwyraźniej zmieniło i Windows 7 nadrobił dystans dzielący oprogramowanie od sprzętu.
  23. W ofercie Samsunga znalazły się trzy interesujące urządzenia typu all-in-one PC. Komputery z serii Magic Station (MU100, MU200 oraz MU250) to pecety, w całości zintegrowane w wielodotykowym monitorze HD. Dwa pierwsze modele korzystają z 20-calowego monitora, ostatni daje użytkownikowi do dyspozycji monitor 23-calowy. Wszystkie komptuery sprzedawane są z systemem Windows 7 Home Premium. W modelu MU100 użyto procesora Atom N450 (1,66 GHz), 2 gigabajtów pamięci RAM w kościach DDR2, 320-gigabajtowego dysku twardego, napędu DVD, a za wyświetlanie grafiki odpowiada układ Intel GMA 3150. Z kolei użytkownik MU200 skorzysta z procesora Pentium T4400 (2,20 GHz), 2 gigabajtów RAM-u w kościach DDR3, 320 GB HDD, napędu DVD oraz karty graficznej GeForce G310M z 512 megabajtami pamięci. Najbardziej zaawansowany model MU250 daje nam do dyspozycji procesor Core2Duo T6600 (2,20 GHz), 3 GB RAM (DDR3), 500-gigabajtowy dysk twardy, napęd DVD oraz kartę GeForce G310M z 512 megabajtami pamięci. Komputery można obsługiwać bez myszki i klawiatury, chociaż, oczywiście, istnieje możliwość podłączenia tych urządzeń. Magic Station dostępne są obecnie tylko na rynku koreańskim.
  24. Naukowcy z Uniwersytetu Kalifornijskiego w San Diego przygotowali raport o konsumpcji informacji przez Amerykanów w 2008 roku [PDF]. Wynika z niego, że mieszkańcy USA w ciągu 12 miesięcy "użyli" 3,6 zettabajtów (1021, bilion gigabajtów) informacji i niemal 11 biliardów wyrazów. Oznacza to, że przeciętny mieszkaniec tego kraju "konsumował" każdego dnia 34 gigabajty informacji i 100.500 wyrazów. Dane takie uzyskano na podstawie analizy ponad 20 źrodeł informacji. Od książek i gazet po przenośne gry komputerowe, radio satelitarne i internetowy przekaz wideo. W badaniach nie uwzględniono informacji "konsumowanej" w czasie pracy. Uczeni zdefiniowali "informację" jako przepływ danych docierających do ludzi i policzyli bajty, słowa oraz czas spędzany na konsumpcji. Najbardziej rozpowszechnionym sposobem korzystania z informacji jest przekaz obrazkowy. Około 2 zettabajtów pozyskano z gier wideo, a 1,3 ZiB z telewizji. Widać tutaj wyraźny wzrost w porównaniu z poprzednimi badaniami z roku 2000 i 2003. Uczeni zauważają, że liczba godzin spędzanych na konsumpcji informacji rośnie w latach 1980-2008 w tempie 2,8% rocznie. Przed 28 laty przeciętny Amerykanin "konsumował" informacje średnio przez 7,4 godziny na dobę. Obecnie jest to 11,8 godziny. Wśród źródeł informacji nadal dominuje radio i telewizja. Naukowcy wyliczyli, że 60% czasu konsumpcji jest związane właśnie z tymi mediami. Amerykanie spędzają przy źródłach nie związanych z komputerem ponad 75% czasu związanego z konsumpcją informacji. Jednocześnie jednak widać, że komputery zmieniają sposób przyswajania informacji. Przed ich pojawieniem się jedynym interaktywnym źródłem informacji był telefon. Dzięki komputerom 33% słów i ponad 50% bitów jest odbieranych w sposób interaktywny. Komputery przyczyniły się też do zwiększenia, zagrożonego przez telewizję, czytelnictwa, gdyż słowo pisane jest głównym sposobem komunikacji z maszyną.
  25. Zdaniem specjalistów z IBM-a, w ciągu najbliższych 10 lat powstaną komputery, których możliwości obliczeniowe dorównają ludzkiemu mózgowi. Już w tej chwili naukowcy potrafią dokładnie symulować na komputerze mózg kota. O odtworzeniu wirtualnego mózgu zwierzęcia poinformował Dharmendra Modha, który w IBM-ie jest odpowiedzialny za badania nad inteligentnym przetwarzaniem. Podobnymi osiągnięciami mogą pochwalić się naukowcy z czołowych uniwersytetów świata. Zaledwie przed rokiem DARPA przyznała Błękitnemu Gigantowi i pięciu uniwersytetom grant na stworzenie wirtualnego mózgu i symulowanie jego możliwości obliczeniowych, a już obecnie dokonano dwóch bardzo ważnych kroków. Pierwszy to przeprowadzenie w czasie rzeczywistym symulacji pracy ponad miliarda neuronów i 10 bilionów synaps. To więcej niż ma do dyspozycji mózg kota. Drugi z ważnych kroków to stworzenie algorytmu o nazwie BlueMatter, który szczegółowo opisuje wszystkie połączenia w obszarach korowych i podkorowych ludzkiego mózgu. Jego dokładne mapowanie pozwoli nam zrozumieć, w jaki sposób mózg przetwarza informacje. Podczas swoich badań naukowcy wykorzystują najnowsze osiągnięcia neurologii, nanotechnologii oraz doświadczenia z budowy superkomputerów. Nie wiadomo, czy rzeczywiście w ciągu najbliższych 10 lat uda się komputerowo odtworzyć zdolności ludzkiego mózgu. Jednak tempo prac napawa optymizmem i niewykluczone, że około roku 2020 maszyny będą miały zdolności obliczeniowe podobne do naszych mózgów.
×
×
  • Create New...