Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'komputer' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 78 wyników

  1. Użytkownicy komputerów iMac informują na forach o niespodziewanych kłopotach z maszynami. Wszystko wskazuje na to, że jakiś niezidentyfikowany dotąd błąd powoduje, że po wejściu na witrynę z elementami Flash, komputer pracuje bardzo powoli, gdyż dochodzi do całkowitego zużycia mocy procesora. Użytkownicy alarmują, że 27-calowe iMaki po wejściu na witryny takie jak YouTube czy Hulu pracują niezwykle wolno, a narzędzia do monitorowania sprzętu wykazują 100-procentowe użycie CPU. Podobnie dzieje się po dłuższej pracy z komputerem. "Mam 27-calowego iMaca i trafiłem na problemy z wydajnością. Jeśli zostawię go włączonego na ponad 5 godzin, niektóre aplikacje, takie jak Rosetta Stone, Front-Row, iPhoto i inne, startują niezwykle powoli. Muszę wówczas restartować komputer" - napisał użytkownik PenSilveltMEKY. Przedstawiciele Apple'a radzili skarżącym się użytkownikom, by ponownie zainstalowali wtyczkę do obsługi Flasha, jednak to nie pomagało. Tym bardziej, że problem nie ogranicza się tylko do Flasha. Na razie nie wiadomo, co jest przyczyną występowania problemów.
  2. Japońscy naukowcy z Wydziału Medycyny Uniwersytetu w Jokohamie opracowali program, który jest w stanie przewidzieć prawdopodobieństwo śmierci osoby dzwoniącej na pogotowie ratunkowe. Wyniki podawane przez oprogramowanie zostały następnie zweryfikowane poprzez porównanie ich z rzeczywistymi wydarzeniami. Skomputeryzowany system zarządzania ruchem karetek pogotowia został uruchomiony 1 października 2008 roku i działał do 31 marca 2009. Później przystąpiono do oceny jego efektywności, a jej wyniki zostały właśnie podane do publicznej wiadomości. Przez wspomniane 6 miesięcy pogotowie odebrało 60 000 wezwań. Gdy telefon dzwonił, do systemu wprowadzano informacje podane przez pacjenta, a komputer dokonywał odpowiednich obliczeń i kategoryzował pacjentów pod względem zagrożenia życia w chwili wzywania pomocy. Po pół roku porównano wyniki podawane przez komputer z oceną stanu zdrowia pacjentów, którzy zostali przywiezieni przez pogotowie do szpitali. Okazało się, że w ponad 80% przypadków komputer potrafił prawidłowo ocenić zagrożenie dla życia pacjenta. Twórcom systemu, pracującym pod kierownictwem Kenjiego Ohshige, to jednak nie wystarcza. Chcą go nadal udoskonalać, gdyż zdają sobie sprawę, że w wielu przypadkach każda minuta zwłoki w uzyskaniu pomocy może decydować o życiu lub śmierci dzwoniącego.
  3. Dwójka amerykańskich naukowców przedstawiła wyliczenia, z których wynika, że za 75-80 lat dojdziemy do kresu możliwości dalszego zwiększania mocy obliczeniowej komputerów. Jeśli Prawo Moore'a nadal będzie obowiązywało i komputery będą o 100% zwięĸszały swoją moc co mniej więcej dwa lata, to około roku 2085 nie będzie możliwe dalsze ich przyspieszanie. Granicę wyznaczy prędkość światła. Lev Levitin i Tommaso Toffoli z Boston University opublikowali swoje wyliczenia w Physical Review Letters. Oparli się przy tym na pracach Levitina z lat 80. ubiegłego wieku. Uczony wyróżnił wówczas najprostszą kwantową operację, która musi być wykonana w kwantowych systemach obliczeniowych. Teraz obaj naukowcy obliczyli najkrótszy czas, potrzebny do jej wykonania. Z ich wyliczeń wynika, że idealny komputer kwantowy będzie w stanie wykonać w ciągu sekundy 10 biliardów operacji więcej, niż obecne najbardziej zaawansowane procesory. Jeśli zatem Prawo Moore'a zachowa ważność, wydajność taka zostanie osiągnięta jeszcze przed końcem bieżącego wieku. Wyliczenie Levitina i Toffoliego opiera się jednak na Prawie Moore'a. Scott Aaronson z MIT-u uważa, że założenie takie jest jednak wyjątkowo optymistyczne. Jego zdaniem Prawo Moore'a nie przetrwa kolejnych 20 lat. Oczywiście nie oznacza to, że naukowcy z Boston University się mylą. Aaronson jest zadowolony ze znalezienia granicy rozwoju komputerów. Z punktu widzenia teoretyka, bardzo dobrze jest wiedzieć, że są nieprzekraczalne granice. Można stwierdzić, że to rozczarowujące, iż nie będziemy w stanie budować nieskończenie szybkich komputerów, jednak jeśli mielibyśmy teorię fizyczną, która pozwala na tworzenie nieskończenie szybkich maszyn liczących, to by znaczyło, że coś jest nie tak z tą teorią.
  4. Jedną z metod zwiększenia wydajności komputerów jest połączenie elektroniki z materiałami biologicznymi. Eksperci z Lawrence Livermoore National Laboratory (LLNL) opracowali hybrydową platformę, która pozwala na tworzenie urządzeń bionanoelektronicznych wykorzystujących pokryte lipidami nanokable. Tego typu urządzenia mogą zrewolucjonizować medycynę i diagnostykę, gdyż pozwolą na łatwe łączenie urządzeń elektronicznych z ludzkim ciałem. Przyczynią się do znacznego postępu w protetyce, pozwalając np. na skonstruowanie sztucznego ślimaka ucha wewnętrznego. W dalszej przyszłości dzięki bioelektronice mogą powstać potężne komputery. Systemy biologiczne są w stanie przetwarzać różne informacje znacznie sprawniej niż najpotężniejszy superkomputer. Wystarczy wspomnieć o przetwarzaniu i rozpoznawaniu obrazów czy dźwięków. Dla każdego zdrowego zwierzęcia jest to zadanie banalnie łatwe, a przekracza możliwości współczesnych maszyn. Obwody elektroniczne korzystające ze złożonych komponentów biologicznych mogą być znacznie bardziej wydajne - mówi Aleksandr Noy, szef projektu badawczego w LLNL. Dotychczas próbowano łączyć mikroelektronikę z materiałami biologicznymi, nigdy jednak nie osiągnięto odpowiedniego poziomu integracji. Dzięki stworzeniu nanomateriałów o skali wielkości porównywalnej z wielkością molekuł biologicznych możemy silnie zintegrować te systemy - stwierdza Noy. Jego zespół wykorzystał powszechnie spotykane w komórkach błony lipidowe. Tworzą one stabilne, samoregenerujące się systemy, które są jednocześnie nieprzenikalnymi barierami dla jonów i niewielkich molekuł. Trzeba też wspomnieć, że błony te mogą zawierać olbrzymią liczbę maszyn złożonych z białek. Maszyny te przeprowadzają wiele operacji, takich jak rozpoznawanie, transport czy przesyłanie sygnałów w komórce - stwierdza Nipun Misra, jeden z członków zespołu badawczego. Naukowcy użyli dwuwarstwowej błony lipidowej, za pomocą której odizolowali nanokable w krzemowym tranzystorze od roztworu. Dzięki takiemu rozwiązaniu mogli wykorzystać pory w błonie do decydowania, którędy jony mogą przenikać do nanokabli. Pozwala to na kontrolowanie transportu jonów oraz działania białek w membranie. Eksperymenty wykazały bowiem, że zmieniając napięcie w bramce tranzystora można zamykać i otwierać pory.
  5. Inżynierowie z Uniwersytetu Johnsa Hopkinsa stworzyli oprogramowanie, które bada mutacje występujące w DNA i wyróżnia te zmiany, które mogą przyczynić się do powstania nowotworu. Ma ono pomóc specjalistom, którzy sprawdzają olbrzymią liczbę nowo odkrytych mutacji genetycznych. Wiele z nich jest nieszkodliwych lub też nie ma żadnego związku z nowotworami. Specjalistyczne oprogramowanie wskaże te mutacje, którym warto bliżej się przyjrzeć. Program skupia się na mutacjach missens, czyli zmianach pojedynczych nukleotydów kodonie. co wiąże się ze zmianą aminokwasu w kodowanym przezeń białku. Niektóre z mutacji tego typu prowadzą do zmniejszenia aktywności białek niszczących guzy lub też do zwiększenia aktywności białek, które promują powstawania guzów. Rachel Karchin, która nadzorowała prace nad wspomnianym oprogramowaniem, mówi, że testowanie olbrzymiej liczby mutacji genetycznych, w celu znalezienia tych nielicznych mających związek z nowotworem, jest bardzo kosztowne i czasochłonne. Nasza metoda powinna znacznie przyspieszyć prace nad zidentyfikowaniem genetycznych czynników ryzyka i pomóc znaleźć nowe cele dla leków antynowotworowych. Nową metodę nazwano CHASM (Cancer-specific High-throoughput Annotation of Somatic Mutations). Jej stworzenie wymagało współdziałania specjalistów z zakresu informatyki medycznej, biostatystyki i onkologii. Zespół najpierw zawęził pole poszukiwań do około 600 czynników powodujących nowotwory mózgu, a następnie posortował je na "kierujących" i "pasażerów". Pierwsza grupa to mutacje, które inicjują lub wspomagają wzrost guza. "Pasażerowie" to mutacje, które są obecne w czasie, gdy guz powstaje, ale prawdopodobnie nie grają żadnej roli w jego formowaniu się. Hannah Carter i Rachel Karchin najpierw wprowadziły do komputera około 50 cech charakterystycznych i właściwości związanych z nowotworami i każdej z nich przypisali wartość numeryczną. Następnie wykorzystały matematyczną metodę typu Random Forest. W wyniku jej działania powstało około 500 "drzewek decyzyjnych" na temat każdej mutacji. Każde z nich, za pomocą własnej struktury decyzyjnej, bierze udział w "głosowaniu", które przydziela mutacje do grupy "kierujących" lub "pasażerów". Pani Carter porównuje to do zgadywanki, podczas której mamy np. zidentyfikować osobę, zadając pytania, na które odpowiedź może brzmieć "tak" lub "nie". Na podstawie odpowiedzi przygotowano ranking "kierujących" i "pasażerów". Pierwsi trafili na początek listy, drudzy na koniec. Dzięki takiej metodzie specjaliści badający nowotwory mogą skupić się na tych mutacjach, które są na czele listy, a więc z większym prawdopodobieństwem wywołują chorobę. Oprogramowanie ma zostać bezpłatnie udostępnione w sieci, by naukowcy z całego świata mogli wykorzystywać je w swojej pracy.
  6. Biologiczne komputery wykonane z DNA i innych molekuł, istnieją w wysoce wyspecjalizowanych laboratoriach. Potrafią wykonywać coraz bardziej skomplikowane zadania, ale ich obsługa nie jest prosta. Badacze z izraelskiego Instytutu Weizmanna stworzyli właśnie przyjazny użytkownikowi komputer biologiczny, który jest w stanie dokonywać skomplikowanych obliczeń. Pierwsze autonomiczne programowalne urządzenie wykorzystujące DNA powstało w 2001 roku w Instytucie Weizmanna, a jego twórcami byli profesor Ehud Shapiro wraz z zespołem. Niewielka molekuła, biliony razy mniejsza od kropli wody, była w stanie wykonać proste operacje, takie jak np. porównanie listy zer i jedynek i stwierdzenie, czy ich liczba była sobie równa. W 2004 roku ulepszona wersja komputera wykryła w próbce komórki rakowe i uwolniła molekuły, które je zniszczyły. W przyszłości takie biokomputery mogą być wstrzykiwane do ciała pacjenta, gdzie będą wykrywały choroby i je zwalczały. Teraz profesor Shapiro wraz z doktorantami Tomem Ranem i Shaiem Kaplanem poinformowali o skonstruowaniu biokomputera, zdolnego do "myślenia". Potrafi on dedukować, na zasadzie zaproponowanej przez Arystotelesa, wykorzystując operatory "jeśli", "to". Innymi słowy, gdy biokomputer otrzyma zbiór zasad, np. "Wszyscy ludzie są śmiertelni", "Sokrates jest człowiekiem" to prawidłowo odpowie na pytanie "Czy Sokrates jest śmiertelny". Biologicznemu komputerowi wgrano całą serię zasad i zadawano skomplikowane pytania. Wszystkie uzyskane odpowiedzi były prawidłowe. Jednocześnie Shapiro i jego zespół opracowali kompilator, który "tłumaczy" dane pomiędzy wysokimi językami programowania a kodem używanym do programowania DNA. Biokomputer został zbudowany z licznych nici DNA, które reprezentowały poszczególne zasady, dane i zapytania. Część z nici wyposażono w rodzaj lampy błyskowej emitującej zielone światło. I to właśnie w odpowiednich błyskach światła zakodowane były odpowiedzi. Całą bazę danych dla biokomputera umieszczono w kroplach wody.
  7. Naukowcy z Uniwersytetu Stanowego Michigan twierdzą, że kobiety mniej grają na komputerze niż mężczyźni, ponieważ nie dysponują podobną ilością wolnego czasu (Sex Roles). Studium objęło 276 studentów i studentek. Okazało się, że w ciągu tygodnia dziewczyny spędzały o wiele więcej czasu (ok. 16 godzin) na pracy, zadaniach domowych itp. Nasze odkrycia sugerują, że jedną z przyczyn, dla których kobiety rzadziej oddają się grom, jest konieczność realizacji bardziej rozbudowanego programu zajęć obowiązkowych, przez co zostaje im mniej czasu na przyjemności - podkreśla prof. Jillian Winn z Wydziału Telekomunikacji, Studiów Informacyjnych i Mediów. Amerykanie odnotowali, że studenci mieli w tygodniu niemal 2-krotnie więcej wolnego czasu niż studentki: odpowiednio, 9 i 4 godz.. W ramach eksperymentu respondenci szacowali, ile godzin poświęcali na gry podczas nauki w szkole pośredniej, właściwej średniej i na studiach. W przypadku obu płci osoby, które grały dużo, będąc młodsze, postępowały tak również później. Bez względu na wiek, mężczyźni grali znacznie więcej od kobiet. Wpływało to na czas poświęcany zadaniom domowym, ale nie na średnią ocen. Carrie Heeter, jedna z autorek opracowania, uważa, że na obniżone zainteresowanie kobiet grami wpływa nie tylko presja czasu, ale także brak pań pracujących w przemyśle cyfrowej rozrywki. Wskutek tego są one w większym stopniu dostosowane do męskich zainteresowań. Badania pokazały, że 88% deweloperów gier wideo to panowie. Programy edukacyjne mogą zarówno przyciągnąć kobiety, jak i je zniechęcić, jeśli są generowane pod kątem mężczyzn. Zaangażowanie obu płci wymaga sprawnego balansowania. Heeter dodaje, że choć kobiety i mężczyźni korzystają z tych samych technologii, biologicznie ich mózgi reagują w inny sposób. Gry, które mają optymalnie przemawiać do kobiet, powinny minimalizować nacisk na osiągnięcia oraz zapewniać realne korzyści, takie jak usuwanie stresu, ćwiczenia intelektualne czy poprawianie jakości czasu spędzanego z rodziną i przyjaciółmi. Powinny też dawać możliwość rozgrywania w krótkich rundach.
  8. Nie tylko ludzie i zwierzęta potrafią uczyć się przez obserwację. Uczeni z Uniwersytetu w Oxfordzie i University of Leeds przeprowadzili eksperyment, który udowodnił, że komputer potrafi nauczyć się języka migowego... oglądając telewizję. Najpierw stworzyli program, który określając pozycję ramion potrafił odnaleźć dłonie i rozpoznać wykonywane przez nie ruchy. Następnie wgrali do komputera 10 godzin programów telewizyjnych, w których dialogi były przedstawiane zarówno w formie napisów, jak i przekładane przez lektora na język migowy. Uczeni chcieli, by komputer rozróżnił i zidentyfikował 210 rzeczowników i przymiotników, które pojawiły się na tyle często, by odróżnić odpowiadające im znaki od gestów opisujących inne wyrazy. Maszyna nie miała żadnych danych dotyczących języka gestów. Okazało się, że była w stanie prawidłowo zakwalifikować 136 (65%) zadanych wyrazów. Okazuje się jednak, że nie jest to jedyny sposób na nauczenie komputera języka migowego. Helen Cooper i Richard Bowden z University of Surrey wykorzystali ten sam program, ale inną metodę i, jak twierdzą, uzyskali znacznie lepsze rezultaty. Maszyna dysponująca mniejszą ilością danych jest w stanie nauczyć się większej liczby słów. Ich sposób polegał nie na próbie przyporządkowywania znaków tekstowi, ale wykorzystywał statystyczną częstotliwość pojawiania się znaków. Najpierw maszyna rozpoznawała znaki i szeregowała je w zależności od częstotliwości pojawiania się, a następnie przyporządkowywała je do zadanego tekstu. Wbrew pozorom, w opisanych badaniach nie chodzi o to, kto wymyślił lepszą metodę. Obie mogą się uzupełniać, a w efekcie stacje telewizyjne mogą uzyskać doskonałe narzędzie pozwalające na szybkie i tanie tłumaczenie programów na język migowy. Opracowanie doskonałej metody rozpoznawania przez komputer słów i gestów będzie bowiem oznaczało, że w roli tłumaczy będą mogły wystąpić wirtualne awatary zamiast ludzi.
  9. Firma Tops Systems Corp. we współpracy z Toyotą i Nihon Unisys opracowała specjalistyczny system graficzny o wydajności 800 teraflopsów. Superkomputer o takiej mocy zająłby 4. miejsce na najnowszej liście TOP500. System składa się z dziewięciu 73-rdzeniowych układów i mieści w obudowie zwykłego peceta. Jest w stanie dokonywać obliczeń w czasie rzeczywistym i wyświetlać prezentację z rozdzielczością 1920x1080. Powstał z myślą o przemyśle samochodowym, w którym przyda się do błyskawicznego symulowania wyglądu samochodu w zależności od kształtu nadwozia i koloru lakieru. Zwykle podobne systemy wykorzystują standardowe układy graficzne. Tym razem użyto dedykowanych kości, wykorzystujących technologię renderingu na powierzchniach opisanych krzywymi Beziera. Do tworzenia sceny 3D nie wykorzystuje się trójkątów, ale gładkie powierzchnie wektorowe, dzięki czemu otrzymujemy znacznie dokładniejsze wyniki. Rendering przeprowadzany jest za pomocą rasteryzacji, gdyż specjaliści uznali, że bezpośredni ray-tracing nie sprawdzi się na symulowanych powierzchniach. W pracach nad nowym systemem wykorzystano dotychczasowe osiągnięcia Toyoty. Firmowa technika renderingu, w przeciwieństwie do tradycyjnego ray-tracingu, "rozbija" promień światła na 35 długości fali i dokonuje obliczeń dla każdej z nich z osobna.
  10. Serwis PC Pro ostrzega przed zakupem komputera z Windows 7 przed oficjalną premierą tego systemu. W Wielkiej Brytanii zaczęto oferować maszyny z Windows 7 RC. Microsoft przypomina, że taki sposób sprzedaży jest naruszeniem warunków licencji i podkreśla, iż RC nie jest ostateczną wersją systemu. Ponadto licencja na jej użytkowanie wygaśnie w przyszłym roku. Użytkownicy powinni być zatem ostrożni i nie dać się nabrać nieuczciwym sprzedawcom. Nawet jeśli zapewnią oni, że po ukazaniu się pełnego wydania Windows 7 zapewnią klientowi płytę z systemem, to jednak, wskutek sporu pomiędzy UE i Microsoftem, nie będzie możliwa aktualizacja systemu. Użytkownik będzie musiał przeprowadzić instalację na czystym dysku twardym, co, w przypadku użytkowników Windows 7 RC będzie oznaczało konieczność zarchiwizowania dotychczasowych dokumentów, instalację i ponowne ustawienie swojego środowiska pracy.
  11. Z artykułu opublikowanego w piśmie American Journal of Preventive Medicine dowiadujemy się o gwałtownym wzroście problemów zdrowotnych związanych z używaniem komputerów. Badacze z Center for Injury Research and Policy, The Research Institute of Nationwide Children's Hospital oraz The Ohio State University College of Medicine donoszą o siedmiokrotnym wzroście liczby wypadków. W latach 1994-2006 na oddziały ratunkowe w USA zostało przyjętych ponad 78 000 osób. Zdiagnozowano u nich poważne problemy zdrowotne wywołane korzystaniem z komputera. Około 93% wypadków wydarzyło się w domu. W ciągu tych 13 lat ich liczba zwiększyła się o 732%, a w tym samym czasie liczba komputerów w gospodarstwach domowych wzrosła o 309%. Naukowcy skupili się na zranieniach powstałych wskutek upadku lub nadepnięcia na sprzęt komputerowy, naciągnięcia mięśni i ścięgien, upadku sprzętu komputerowego na człowieka itp. Nadepnięcie na sprzęt komputerowy lub upadek nań najczęściej spotykają dzieci w wieku poniżej 5. roku życia (43,4% przypadków) oraz osoby, które przekroczyły 60. rok życia (37,7%). Z kolei zranienia spowodowane uderzeniem (36,9%) dotyczą wszystkich grup wiekowych. Dzieci w wieku do 10. roku życia najczęściej odnoszą rany głowy. Uczeni zwracają uwagę, że tak szybki wzrost poważnych ran wskazuje, iż konieczne są badania, która pozwolą na skonstruowanie bardziej bezpiecznych urządzeń. Konieczne jest zebranie większej liczby danych na temat ich konstrukcji, rozmieszczenia w domu, rodzaju wypadków czy też rodzaju ran. Szczególnie należy zwrócić uwagę na to, by konstrukcja komputerów zapewniała większe bezpieczeństwo dzieciom.
  12. Specjaliści z Microsoft Research we współpracy z naukowcami z Uniwersytetu Kalifornijskiego w San Diego opracowali prototypowe urządzenie, które umożliwia komputerowi komunikację w stanie uśpienia. Standardowy pecet czy laptop może albo być aktywny, wówczas jest w pełni gotowy do pracy i pobiera sporo energii nawet gdy nic na nim nie robimy, albo uśpiony, a wówczas komputer nie wykonuje żadnych zadań. Urządzenie o nazwie Somniloquy umożliwia wprowadzenie komputera w stan pośredni. Dzięki niemu maszyna jest uśpiona, system operacyjny nieaktywny, oszczędzamy sporo energii, jednak w tym samym czasie komputer może pobierać dane z sieci P2P czy poprawki ze strony producenta oprogramowania. Może też oczekiwać na zdarzenia wymagające zaangażowania samego OS-u czy użytkownika - takie jak przychodzące rozmowy VoIP lub próba zdalnego dostępu do komputera. Wówczas system operacyjny zostanie w pełni wybudzony. Głównym celem Somniloquy ma być zachęcenie użytkownika, by częściej korzystał z trybu uśpienia. Gdy będziemy chcieli skorzystać z sieci P2P czy pobrać dużą porcję poprawek, możemy zrobić to w nocy, a nasz komputer nie będzie musiał, jak to się dzieje obecnie, być w pełni aktywny. Somniloquy składa się z energooszczędnego procesora, niewielkiej pamięci operacyjnej, systemu operacyjnego oraz niedużej ilości pamięci flash. Nie ma jednak niebezpieczeństwa, że pobierane dane się nie zmieszczą. Gdy pamięć flash się zapełni, urządzenie wybudzi komputer, wgra dane na twardy dysk i nadal będzie mogło pobierać informacje. Testy wykazały, że w zależności od zastosowań urządzenie wymaga od 11 do 24 razy mniej mocy niż komputer, co przekłada się na oszczędności rzędu 60-80 procent. Prototyp Somniloquy jest podłączany do komputera za pomocą portu USB. W przyszłości urządzenie mogłoby po prostu stanowić część karty sieciowej.
  13. IBM stworzył komputer, który wkrótce stanie do pojedynku z człowiekiem w teleturnieju "Jeopardy". W Polsce był on znany pod nazwą "Va Banque". Przypomnijmy, że uczestnik słyszał zdanie oznajmujące i musiał zadać pytanie, które było odpowiedzią na informację z usłyszanego zdania. Na przykład, na pytanie: Był to pierwszy premier niepodległej Polski po II wojnie światowej, należało odpowiedzieć: Kim był Tadeusz Mazowiecki?. W amerykańskiej edycji teleturnieju zobaczymy superkomputer Watson. Stoi przed nim znacznie trudniejsze pytanie, niż przed legendarnym Deep Blue, który w 1997 roku pokonał Garry Kasparowa. Watsonowi by wygrać będzie musiał zrozumieć pytanie zadane w języku naturalnym. Musi odróżnić wszelkie subtelności językowe, które nam przychodzą z łatwością, ale maszyny dotychczas tego nie potrafią. Specjalnie dla Watsona zasady teleturnieju zostały nieco zmodyfikowane. Otrzyma on pytania w formie tekstowej, jego ludzki przeciwnik będzie mógł je zarówno przeczytać jak i usłyszeć. Watson będzie udzielał odpowiedzi za pomocą syntezatora mowy. Co więcej, maszyna w czasie trwania turnieju nie będzie podłączona do Internetu. Skorzysta jedynie z informacji wprowadzonych przed turniejem. Będzie musiał je przetworzyć, zrozumieć i udzielić odpowiedzi. To wymaga krytycznego myślenia, znacznie więcej niż samej tylko wiedzy - mówi Herry Friedman, producent "Jeopardy". Twórcy programu oraz przedstawiciele IBM-a mają nadzieję, że do walki z Watsonem stanie Ken Jennings, który wygrał "Jeopardy" 74 razy z rzędu i zarobił na turnieju ponad 2,5 miliona dolarów.
  14. Stephen Cox i Jake Newman z University of East Anglia opracowali system, który jest w stanie na podstawie ruchu ust ustalić, jakim językiem posługuje się mówiący. Prace nad komputerami odczytującymi ruch warg trwają od dawna, po raz pierwszy jednak maszyna potrafi rozróżnić języki. Wspomniana technologia została opracowana dzięki modelowaniu i statystycznym badaniom ruchów warg u 23 osób, z których każda posługiwała się płynnie dwoma lub trzema językami. Maszyna potrafi odróżnić angielski, francuski, arabski, niemiecki, mandaryński, polski, włoski, kantoński i rosyjski. Tego typu systemy przydadzą się osobom głuchym, policji czy osobom pracującym w bardzo hałaśliwych warunkach. Wynalazek Coksa i Newmana ma zostać zaprezentowany dzisiaj na konferencji na Tajwanie. W przyszłości system ma zostać udoskonalony tak, by brał pod uwagę różnice pomiędzy poszczególnymi osobami.
  15. Naukowcy z Cornell University stworzyli program, dzięki któremu komputer jest w stanie wykorzystać dane z obserwacji do stworzenia ogólnego prawa. To, co dotychczas było efektem pracy genialnych umysłów, stało się dostępne dla maszyn. Przełomowa praca to dzieło profesora mechaniki i inżynierii kosmicznej Hoda Lipsona oraz doktoranta Michaela Schmidta, specjalizującego się w tworzeniu oprogramowania dla nauk biologicznych. Program pozwala maszynie na analizowanie surowych niedokładnych danych i na odkrycie na ich podstawie praw rządzących naturą. Jednym z największych problemów współczesnej nauki jest analizowanie olbrzymich zbiorów danych i odkrywanie fundamentalnych praw tam, gdzie istnieją luki w teoriach ich dotyczących - mówi Lipson. Oprogramowanie z Cornell University potrafi porównywać olbrzymią liczbę zmiennych, szukać w nich zależności i wyodrębniać pewne stałe zależności pomiędzy nimi. Tworzy na tej podstawie równania, których prawdziwość sprawdza w oparciu o dostępne informacje. Pozostawia następnie te równania, które najlepiej się sprawdzają, a inne odrzuca. Czynności te powtarza tak długo, aż w końcu znajdzie algorytm, który dokładnie opisuje zachowanie analizowanego przez siebie systemu. W ten sposób komputer znajduje stałe, które leżą u podstaw praw fizyki. Po włączeniu maszyna Schmidta i Lipsona potrafiła jedynie określić jaka korelacja zachodzi pomiędzy obserwowanymi danymi i stwierdzić, które z nich są ważne, a które należy odrzucić. Korzystając z danych z oscylatora harmonicznego, wahadła i podwójnego wahadła, ale bez znajomości jakichkolwiek zasad fizyki, geometrii czy kinematyki, maszyna samodzielnie stworzyła prawa zachowania energii, pędu i drugą zasadę dynamiki. Nie oznacza to, że naukowcy wkrótce staną się niepotrzebni, gdyż zastąpią ich komputery. Jednak nowe oprogramowanie umożliwi uczonym na znacznie szybsze wyodrębnienie istotnych danych i skupienie się właśnie na nich. Warto wspomnieć, że uczeni z Cornell nie są jedynymi, którzy w ostatnim czasie przeprowadzili tak znaczące prace. W Wielkiej Brytanii profesor Ross King z Aberystwyth University stworzył automatycznego naukowca imieniem Adam. Maszyna samodzielnie stworzyła hipotezę o istnieniu genów w drożdżach i o enzymach produkowanych przez te geny. Następnie zaprojektowała i przeprowadziła eksperyment, który miał potwierdzić hipotezę. Następnie, korzystając z wyników eksperymentu, Adam skorygował hipotezę i przeprowadził kolejne eksperymenty, na podstawie których opracował teorię. Naukowcy powtórzyli następnie eksperymenty Adama i okazało się, że robot doszedł do prawidłowych wniosków.
  16. Z opublikowanego właśnie dokumentu pt. "PC Energy Report 2009" dowiadujemy się, jak wiele zanieczyszczeń można uniknąć i ile pieniędzy zaoszczędzić, wyłączając nieużywane komputery. Okazuje się, że w samych tylko Stanach Zjednoczonych firmy tracą 2,8 miliarda dolarów rocznie, gdyż ich pracownicy nie wyłączają nieużywanych komputerów. Te maszyny zwiększają emisję dwutlenku węgla do atmosfery aż o 20 milionów ton rocznie. To tyle, ile w ciągu roku emituje 4 miliony samochodów. W Wielkiej Brytanii straty sięgają 300 milionów funtów, a do atmosfery niepotrzebnie przedostaje się 1,3 miliona ton CO2. Z wyliczeń wynika też, że firma, która ma 10 000 pecetów i są one wyłączane każdej nocy zaoszczędzi w ciągu roku około 1,5 miliona kilowatogodzin. W Niemczech roczne oszczędności z tego tytułu sięgną 285 000 euro, a w Wielkiej Brytanii - 168 000 funtów. Eksperci oszacowali, że każda firma może zaoszczędzić rocznie średnio 36 dolarów na każdym komputerze, jeśli tylko jej pracownicy będą wyłączali swoje maszyny, gdy ich przez dłuższy czas nie używają. Wiele osób pozostawia komputery włączone na noc, gdyż wierzą w mit, jakoby ich ponowne włączanie zużywało tak dużo energii, że nie opłaca się wyłączać maszyny. Nie ma jednak nic bardziej błędnego. Przeciętny pecet zużywa 89 watów. Jeśli korzystamy z niego przez 8 godzin dziennie, a później pozostaje włączony, to przez 16 pozostałych godzin zużyje 1424 waty. W żadnym wypadku włączanie komputera nie może równać się takiemu poborowi mocy. Maszyna, żeby zużyć podczas włączania tyle energii musiałaby pobierać 17 kilowatów. Tyle pobiera kilkadziesiąt serwerów pracujących pełną parą. Innym nieprawdziwym mitem jest stwierdzenie, jakoby wygaszacz ekranu pozwalał zmniejszyć zużycie energii. Co więcej, niektóre wygaszacze wyświetlają tak bogatą grafikę, że monitor zużywa dwukrotnie więcej energii niż podczas normalnej pracy. Nieprawdziwa jest też informacja, jakoby włączanie i wyłączanie komputera szkodziło sprzętowi. Pecety są bowiem przystosowane do bezproblemowego przejścia 40 000 cykli startu/wyłączania. Średni okres życia komputera to 5-7 lat. W tym czasie nawet nie zbliżymy się do takiej liczby włączeń i wyłączeń. Co więcej, sami producenci komputerów - HP czy IBM - zachęcają swoich pracowników do wyłączania sprzętu i informują, że aby zaszkodzić twardemu dyskowi, musielibyśmy włączać i wyłączać komputer co pięć minut. Aby uświadomić sobie jak wiele energii zużywają komputery, wystarczy wiedzieć, że jeśli wyłączylibyśmy wszystkie pecety na świecie na jedną tylko noc, to zaoszczędzona energia posłużyłaby do oświetlenia całego Empire State Building przez ponad 30 lat.
  17. Analizy przeprowadzone przez Iana Lao z firmy In-Stat pokazują, że użytkownicy komputerów Mac wciąż płacą więcej za sprzęt porównywalny z ich kolegami, kupującymi pecety. Różnica ta ulega jednak zmniejszeniu. Jeszcze 10 lat temu przeciętny użytkownik komputera Apple'a musiał zapłacić za swój sprzęt około 60% więcej, niż przeciętny użytkownik peceta. Wówczas tak duża różnica była w pewnym stopniu niwelowana faktem, iż Apple korzystał z bardziej wydajnych procesorów PowerPC. Jednak od trzech lat firma Jobsa sprzedaje maszyny z układami Intela, a mimo to różnica w cenie pozostaje znaczna. Za komputer spod znaku jabłka trzeba zapłacić od 25 do 40% więcej. Apple nie obniża cen, pomimo tego, że inni producenci to robią w obliczu spowalniającego rynku. Analityków z jednej strony dziwi taka polityka, ale z drugiej tłumaczą ją faktem, że dzięki wyższym cenom Apple może utrzymywać swój wizerunek elitarności. Analizy wykazały też jeszcze jedną, zaskakującą rzecz. Otóż komputery Apple mają często... słabsze możliwości graficzne niż porównywalne pecety. Kłóci się to z ich wizerunkiem jako maszyn dla profesjonalnych grafików. Serwis Computerworld przygotował własną krótką analizę produktów Apple'a i konkurencji. Porównano np. Maka Mini z maszyną Asus Nova P22. Komputer Apple'a ma nieco szybszy procesor, kartę graficzną i pamięć RAM, ale Nova korzysta z bardziej pojemnego dysku twardego i szybszej nagrywarki DVD. Różnica w cenie wynosi 40% na niekorzyść Maka. Zestawiono też Maka Pro z FX6800-05 Gatewaya. Oba wykorzystują czterordzeniowe CPU Intela z rdzeniem Nehalem. Konfiguracja pamięci jest identyczna. Oba komputery wyposażono w takie same HDD, z tym, że w maszynie Gatewaya znajdziemy też 80-gigabajtowy SSD. Mac wykorzystuje kartę graficzna ATI Radeon HD 4870 z 512 megabajtami pamięci, podczas gdy maszyna Gatewaya korzysta z ATI Radeon HD 4870 X2 z 2 gigabajtami w układach DDR5. Komputer Apple'a jest o 15% droższy. Tańszy okazał się tylko 24-calowy iMac porównany z maszyną Dell XPS One 24. Komputer Apple'a korzysta z 2-rdzeniowego Core 2 Duo, podczas gdy Della - z czterordzeniowego Core 2 Quad. Różnica jest też w zintegrowanych kartach graficznych (GeForce 9400M w Apple'u i GMA X4500HD w Dellu), pamięciach (Apple korzysta z 1066-megahercowych DDR3, a Dell z 800-megahercowych DDR2). Ponadto Apple oferuje dwukrotnie bardziej pojemny dysk twardy oraz kamerę internetową. W komputerze Della znajdziemy natomiast głośniki JBL i tuner telewizyjny HD. Różnica w cenie wynosi 6% na korzyść Apple'a.
  18. Po tym, gdy ponad 30 tys. osób dało się nabrać, że zalogowanie na witrynie ComputerTan.com włącza oprogramowanie wykorzystujące promieniowanie monitorów LCD, by zapewnić piękną opaleniznę, brytyjska organizacja charytatywna Skcin przyznała, że to mistyfikacja. Celem akcji było i jest nadal zwiększenie świadomości społecznej związanej z nowotworami skóry. Tradycyjnie w monitorach wykorzystuje się lampy typu CCFL (ang. Cold Cathode Fluorescent Lamps). Zmienne impulsy elektryczne pobudzają atomy, a te emitują elektrony, które powodują, że zgromadzony w lampie gaz zaczyna fluoryzować. Autorzy zamieszczonego na stronie WWW tekstu przekonywali, że pobudzając atomy za pomocą określonych częstotliwości, można spowodować, że CCFL będą emitować promienie świetlne o różnej długości: od podczerwieni po ultrafiolet (twórców prezentowanej technologii miał szczególnie interesować właśnie ten koniec spektrum). Twierdzili również, że ściśle kontrolując parametry prądu dostarczanego do CCFL, są w stanie regulować poziom i intensywność promieniowania, aby dostosować je do skóry użytkownika i jego doświadczeń z ComputerTan.com. Komputerowe opalanie miało eliminować ryzyko poparzenia. Zgodnie z opisem, najlepiej odbywać 3 sesje tygodniowo. Wtedy pobudzone promieniowaniem UVB melanocyty produkują więcej barwnika, który przemieszcza się w kierunku powierzchni skóry, gdzie ulega utlenieniu. Po zadeklarowaniu przez internautę chęci wzięcia udziału w darmowej sesji prezenterka zachwalała technologię. Potem wystarczyło nacisnąć guzik "start", by po krótkiej "kalibracji" monitora rozpocząć 5-minutowe opalanie. Gdy kontrolki znikały, pojawiały się świetlówki, które nie tylko coraz silniej się jarzyły, ale i wydawały charakterystyczny bzyczący dźwięk. Niespodziewanie na białym tle wyświetlał się napis: Nie daj się oszukać, promieniowanie UV szkodzi oraz seria zdjęć nowotworów skóry. Oprawa graficzna kampanii jest dziełem agencji reklamowej McCann Erickson.
  19. Gra z ludzkim bądź komputerowym przeciwnikiem w inny sposób pobudza ludzki mózg. Jeśli więc chcemy osiągnąć określone rezultaty, to wybór partnera nie powinien być dziełem przypadku (BMC Neuroscience). Zespół doktora Kracha i profesora Kirchera z Uniwersytetu w Marburgu przeprowadził badanie obrazowe mózgu ochotników, którzy grali w grę hazardową. Wierzyli oni, że muszą się zmierzyć z żywą istotą lub maszyną, ale nie mogli sprawdzić, kto lub co siedzi naprawdę po drugiej stronie. Chodziło o określenie wpływu płci (bycie kobietą bądź mężczyzną) i przeciwnika (rywalizacja z człowiekiem lub komputerem) na wzorce aktywacji przyśrodkowej kory przedczołowej (ang. medial prefrontal cortex, mPFC). Wybrano właśnie mPFC, ponieważ jest to rejon związany z tworzeniem tzw. teorii umysłu, a więc modelu myśli, intencji oraz emocji innych ludzi. Podczas gry można było współpracować z konkurentem, by podzielić się potem wygraną lub oszukać go i zgarnąć wszystko dla siebie. Gdy na oszustwo decydowały się obie strony, wszyscy przegrywali. Choć badani o tym nie wiedzieli, w rzeczywistości zawsze grali z komputerem, który w każdej rundzie działał losowo. Niemcy zaobserwowali, że pewne rejony mózgu aktywowały się zawsze, bez względu na to, czy ochotnik myślał, że gra z człowiekiem, czy z maszyną. Były to przyśrodkowa kora przedczołowa, przedni zakręt obręczy (ang. anterior cingulate cortex, ACC) oraz prawa okolica zbiegu płatów skroniowego i ciemieniowego (ang. temporoparietal junction, TPJ). To właśnie te obszary odpowiadały za generowanie teorii umysłu. Kiedy ochotnik był jednak przekonany, że gra z drugim człowiekiem, nasilała się aktywność rejonów związanych z planowaniem i przewidywaniem: mPFC oraz ACC. Okazało się też, że w porównaniu do kobiet, u mężczyzn dochodziło do silniejszego pobudzenia różnych rejonów, w tym okolic przyśrodkowoczołowych, kiedy sądzili oni, że grają z człowiekiem. Wg Kracha, można to wyjaśnić na kilka sposobów. Badanym mówiono, że ludzkim przeciwnikiem jest zawsze przedstawiciel płci brzydkiej, a w ramach wcześniejszych studiów wykazano, że kobiety i mężczyźni obierają inne strategie w obecności rywala mężczyzny. Niewykluczone też, że panie lepiej wyczuwały, że w rzeczywistości zawsze konkurują z maszyną, przez co ich mózg cały czas angażował się w podobnym stopniu.
  20. Glenn Zimmerman, jeden z zatrudnionych w Pentagonie ekspertów ds. bezpieczeństwa IT, przestrzegał na konferencji Cyber Warfare, że w wielu firmach najsłabszym ogniwem w zabezpieczeniach są... komputery najwyższych rangą menedżerów. W wielu firmach reguły dotyczące bezpieczeństwa są bardzo surowe, pracownicy nie mogą swobodnie surfować w Internecie, odtwarzać dowolnych płyt CD czy DVD, podłączać zewnętrznych napędów czy instalować programów. Zasady te najczęściej nie dotyczą szefów firmy, przez co używane przez nich komputery stają się szeroko otwartą bramą do firmowej sieci. Co gorsza, mało kto odważy się powiedzieć swojemu szefowi, by przestrzegał tych samych zasad, co pracownicy. Czasami jedynym sposobem jest włamanie do ich komputerów i pokazanie, co można wówczas zrobić - stwierdził Yael Shahar z izraelskiego Międzynarodowego Instytutu Antyterrorystycznego. Oczywiście, można mieć przez to olbrzymie kłopoty. Podczas tej samej konferencji zwrócono też uwagę, że zbyt ostre przepisy bezpieczeństwa mogą utrudniać pracę firmy. Jeden z uczestników opowiadał o tym, jak jego szef zlecił mu zniszczenie DVD z tajnymi danymi. Gdy już dowiedział się, jakie urządzenia do niszczenia płyt mają certyfikat Narodowej Agencji Bezpieczeństwa, nie mógł zamówić takiego urządzenia, gdyż witryna jego producenta nie znajdowała się na liście witryn, z którymi można się łączyć z firmowego LAN-u. Takie nieprzemyślane działania sprowadzają pracowników do roli robotów włączających i wyłączających komputery. Jednak osoby odpowiedzialne za bezpieczeństwo IT bardzo często stosują tego typu nieprzemyślane standardowe procedury, by ułatwić sobie pracę. Efektywne bezpieczeństwo wymaga kompromisu. Jedynym całkowicie bezpiecznym komputerem jest wyłączona maszyna, zalana betonem i wrzucona na dno Rowu Mariańskiego - mówił Zimmerman.
  21. Izraelscy naukowcy z Instytutu Weizmanna uczynili pierwszy krok na drodze do połączenia ludzkiego mózgu i komputera za pomocą interfejsu wykonanego z komórek nerwowych. Profesor Elisha Moses z Wydziału Fizyki Systemów Złożonych oraz doktorzy Ofer Feinerman i Assaf Rotem stworzyli obwody i bramki logiczne z żywych komórek wyhodowanych w laboratorium. Hodowane w laboratoriach neurony nie tworzą samodzielnie "myślących" sieci. Izraelczycy postanowili stworzyć taką strukturę. Dla ułatwienia wykonali ją w jednym wymiarze. Komórki hodowali na szklanej płytce z wyżłobionym rowkiem, wzdłuż którego rosły. Początkowo zauważyli, że można je stymulować polem magnetycznym, podczas gdy zwykle robi się bo za pomocą prądu elektrycznego. Kolejne eksperymenty wykazały, że zdolność przesyłania sygnałów zależy od szerokości pasa stworzonego z neuronów. Pamiętajmy, że w naturze każdy neuron połączony jest z wieloma innymi i dopiero otrzymanie licznych sygnałów powoduje, że sam wyśle własny. Moses i jego zespół zbadali, że liczbą graniczną jest mniej więcej 100 aksonów. Poniżej tej wartości przesłanie sygnału jest mało prawdopodobne. Natomiast bardzo wzrasta im liczba większa od 100. Naukowcy stworzyli więc dwa pasy składające się z około 100 aksonów każdy i zbudowali z nich bramkę logiczną. Gdy sygnał przesyłano przez jeden z pasków, nie wiadomo było, czy otrzyma się odpowiedź. Dopiero przesłanie go przez oba skutkowało zawsze odpowiedzią. W ten sposób powstała bramka AND. Później przyszedł czas na bardziej skomplikowane struktury. Z pasków utworzono trójkąty, które ułożono w rzędzie, podstawami w tę samą stronę i połączono je tak, by przesyłały sygnały tylko w jednym kierunku. Następnie kilka takich rzędów złączono zamknięty obwód. Po przyłożeniu sygnału otrzymano rodzaj biologicznego, obracającego się zegara. Profesor Moses stwierdził: Byliśmy w stanie wprowadzić prostotę do systemu, który sam z siebie jest skomplikowany. Teraz musimy zapytać: 'Jakie warunki należy zapewnić kulturom komórek nerwowych, by były w stanie przeprowadzać złożone obliczenia?'. Jeśli znajdziemy na nie odpowiedź, to będziemy bliżej stworzenia sztucznego urządzenia "myślącego" złożonego z wielu neuronów.
  22. Komputerowe gry wideo to nie tylko przyjemność, ale i w niektórych sytuacjach narzędzie zapobiegające wystąpieniu zespołu stresu pourazowego (ang. Posttraumatic Stress Disorder, PTSD). Psycholodzy z Uniwersytetu w Oksfordzie zauważyli, że gdy po traumatycznym przeżyciu ludzie zasiadali przy Tetrisie, pomagało to wyrugować złe wspomnienia i nawracające wizje katastrofy (PLoS ONE). Brytyjczycy mają nadzieję, że ich odkrycie wpłynie na postępowanie z ofiarami wypadków w szpitalach czy na terapię osób z obszarów objętych działaniami wojennymi. Dr Emily Holme, szefowa zespołu badawczego, studzi zapał entuzjastów takiego podejścia, tłumacząc, że to na razie czysta nauka, a akademicy dopiero rozpoczynają analizę surowych danych. Czeka nas dużo pracy, zanim przełożymy eksperyment na ewentualną metodę terapii. Czterdziestu zdrowym ochotnikom pokazano film, w tym np. reklamy społeczne przestrzegające przed prowadzeniem samochodu po pijanemu. Po odczekaniu 30 min połowa badanych grała przez 10 min w Tetrisa. W tygodniu osoby te rzadziej przypominały sobie traumatyczne wizje. Holmes uważa, że zastosowana tuż po szoku gra komputerowa powstrzymała mózg przed zapisem bolesnych wspomnień. Ograniczona pojemność sprawiła, że Tetris oddziaływał na przebieg procesów pamięciowych. Czemu właśnie Tetris? Ponieważ jest absorbujący i wymaga obracania oraz układania opadających figur. Naukowcy nie mają pewności, czy inne gry byłyby równie skuteczne. Brytyjczycy spekulują, że wspomnienia przykrego wydarzenia i bodźce dostarczane przez grę rywalizują o zasoby mózgowe przeznaczane na różnego rodzaju informacje sensoryczne. Wiemy, że przez okres 6 godzin można wpływać na sposób formowania się określonych wspomnień. To okno czasowe, poprzez które da się oddziaływać na proces konsolidacji śladów pamięciowych – dodaje dr Catherine Deeprose. Skoro pacjentów trapią nawracające obrazy mentalne o charakterze wzrokowo-przestrzennym, czemu nie dopuścić do ich powstania, angażując się w czynność wymagającą użycia tych samych zdolności? Psychiatrzy przyznają, że istnieją skuteczne metody terapii w pełni rozwiniętego PTSD, lecz brakuje technik wczesnej interwencji. Tetris to dla nich rodzaj "szczepionki poznawczej".
  23. Psy mogą już spokojnie odetchnąć, bo dzieci przestały je wykorzystywać do wyjaśnienia nauczycielom, czemu nie odrobiły zadania domowego. Zapomnijmy więc o zębach, zapełnionych papierem żołądkach i potrzebach fizjologicznych załatwionych na zeszytach. Teraz królują wymówki komputerowe: awarie peceta, zepsute drukarki czy nieprzewidziany brak dostępu do Internetu. Badania przeprowadzono w Wielkiej Brytanii. Okazało się, że tamtejsi nauczyciele wysłuchują tygodniowo przeciętnie ok. 6,5 mln tłumaczeń, a 1,3 mln stanowią usprawiedliwienia komputerowe. W sondażu przeprowadzonym przez serwis Pixmania.com wzięło udział 1000 nauczycieli. A oto 5 najpopularniejszych wymówek technologicznych: 1) "Mój komputer się rozleciał i nie dało się go naprawić", 2) "Skończyłem zadanie domowe, ale potem niechcący nacisnąłem klawisz Delete i wszystko przepadło", 3) "Nie mogłem tego wydrukować", 4) "Nie działał Internet i nie miałem jak tego znaleźć", 5) "Zgubiłem laptop". Takie wymówki brzmią dość rozsądnie, ale nie zabrakło też wyjaśnień rodem z thrillera bądź baśni. Twierdzenia "Komputer mojego taty padł ofiarą hakerów z Rosji, którzy ukradli odrobioną pracę domową", "Włamywacz zwinął wydrukowane zadanie razem z komputerem" czy " Pecet wybuchł, gdy pies się na niego załatwił" brzmią jak zaczątek niezłego scenariusza filmowego. Zmianę dominujących wymówek da się bardzo prosto wyjaśnić: obecnie 68% uczniów odrabia lekcje na komputerze, a nie na piechotę w zeszycie lub notatniku. By jednak rzeczywistość nie jawiła się w zbyt różowych barwach, takie tłumaczenie uchodziło płazem tylko na początku, zanim nauczyciele nie zaznajomili się z najnowszymi zdobyczami technologicznymi...
  24. Intel i Asus chcą przy pomocy internautów skonstruować "idealny komputer". W tym celu uruchomiono witrynę WePC.com, na której można umieszczać swoje pomysły dotyczącego tego, jak taki komputer powinien wyglądać. Obie firmy chcą, by użytkownicy "marzyli o niemożliwym", żeby ich wyobraźni nic nie ograniczało. Zapewniają jednocześnie, że wysiłek osób odwiedzających WePC.com nie pójdzie na marne. Wymarzony przez internautów model komputera na pewno powstanie. Hasło umieszczone na witrynie brzmi: "You dream it. ASUS builds it. Intel inside it", co można przetłumaczyć, jako "Ty projektujesz, ASUS buduje, Intel dostarcza podzespołów". Społeczność, biorąca udział w dyskusji na stronie WePC.com zostanie podzielona na trzy grupy tematyczne, odzwierciedlające podział na najbardziej obecnie popularne rodzaje komputerów osobistych: netbooki, notebooki i notebooki do gier.
  25. Naukowcy z Massachusetts Institute Technology próbują dowiedzieć się, jak to się dzieje, że potrafimy rozpoznawać obiekty. Ich prace mogą posłużyć do stworzenia maszyn widzących w sposób podobny jak ludzie. Widzenie i rozpoznawanie przedmiotów to dla nas umiejętności tak oczywiste, że w ogóle się nad nimi nie zastanawiamy. Tymczasem są to bardzo skomplikowane mechanizmy. Wystarczy uświadomić sobie, że nigdy nie widzimy dwukrotnie tego samego obrazu. Przedmioty, ludzi i zwierzęta oglądamy w coraz to nowych sytuacjach, pod innym kątem, przy zmieniającym się oświetleniu. A mimo to potrafimy je rozpoznać. Ta stabilność, niezmienność to podstawa umiejętności rozpoznawania obiektów - mówi James Di Carlo z McGovern Institute for Brain Research w MIT. Chcemy dowiedzieć się, w jaki sposób mózgowi udało się osiągnąć tę stabilność i jak możemy ją zaimplementować w systemach komputerowych - dodaje. Jedno z możliwych wyjaśnień jest takie, że w ciągu sekundy następują trzy niewielkie ruchy gałek ocznych. Tymczasem obiekty fizyczne poruszają się dość wolno. Oczy rejestrują więc "klatki" z obrazami danego obiektu, a mózg uznaje, że seria następujących po sobie "zdjęć" przedstawia ten sam obiekt i dlatego potrafimy go rozpoznać. Już wcześniej zespół DiCarlo przeprowadził ciekawy eksperyment, który potwierdziałby teorię "serii zdjęć". Badanym wyświetlano przedmiot peryferiach pola widzenia. Gdy oczy zaczynały się poruszać tak, żeby znalazł się on w centrum pola widzenia, przedmiot zamieniano na inny. Badani świadomie nie byli w stanie zarejestrować zmiany, jednak okazało się, że po pewnym czasie mylili oba przedmioty. Może to świadczyć o tym, że mózg, do którego trafiała "seria zdjęć" dwóch różnych przedmiotów, uznawał je za jeden. Ostatnio profesor DiCarlo przeprowadził kolejny eksperyment, tym razem na małpach. Naukowcy zbierali sygnały dobiegające z dolnej kory skroniowej w której najprawdopodobniej znajduje się ośrodek "stałości wzrokowej". Neurony tej kory mają swoje preferencje i reagują na "ulubiony" przedmiot niezależnie od tego, w którym miejscu pola widzenia się on znajduje. Najpierw zidentyfikowaliśmy obiekt, który neuron preferował - na przykład żaglówkę - oraz taki, który mniej 'lubił' - na przykład filiżankę herbaty - opowiada magistrant Nuo Li. Gdy w różnych miejscach pola widzenia wyświetlaliśmy żaglówkę, oczy małpy w naturalny sposób przemieszczały się tak, by znalazła się ona w centrum. Jedno z miejsc w polu widzenia wybraliśmy jako punkt, w którym będziemy małpę 'oszukiwać'. Najpierw wyświetlaliśmy tam żaglówkę, a gdy oczy zaczynały się poruszać, zmienialiśmy ją na filiżankę herbaty - mówi. Badania wykazały, że po serii takich "oszustw" neurony małp zareagowały tak samo, jak neurony ludzi z poprzednich badań - straciły orientację co do przedmiotu. Neuron, który "lubił" żaglówki nadal je preferował we wszystkich punktach pola widzenia, z wyjątkiem tego jednego, w którym pokazywano mu filiżankę herbaty. Akurat w tym miejscu zaczął preferować filiżankę herbaty. Im dłużej trwały eksperymenty, tym silniejsza była zmieniona preferencja. Co ważne, naukowcy w żaden sposób nie wpływali na preferencje małp. Zwierzęta mogły swobodnie wędrować wzrokiem po całym ekranie, na którym pokazywano obrazki. Byliśmy zdumieni efektywnością uczenia się neuronów, szczególnie po 1- lub 2-godzinnym treningu - mówi DiCarlo. Wydaje się, że nawet u dorosłych system rozpoznawania obiektów bez przerwy się uczy na podstawie doświadczenia. Jeśli weźmiemy pod uwagę fakt, że w ciągu roku oczy człowieka wykonują około 100 milionów ruchów, to ten właśnie mechanizm może być podstawą naszych umiejętności łatwego rozpoznawania obiektów - dodaje profesor.
×
×
  • Dodaj nową pozycję...