Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'komputer' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 78 wyników

  1. Ludzie zawsze szukają reguły pozwalającej na sensowne uporządkowanie zestawu danych. W przypadku komputerów trudno było odtworzyć tę umiejętność. W zetknięciu z obszernym zbiorem elementów maszyny nie wiedzą, gdzie zacząć, chyba że wyposażono je w algorytm, pozwalający na wyszukanie określonej struktury, np. hierarchicznej czy zestawu klastrów. Teraz Josh Tenenbaum z MIT i Charles Kemp z Carnegie Mellon stworzyli program, który umożliwia wybór najlepszej metody uporządkowania danych, bez z góry zadanego porządku (Proceedings of the National Academy of Science). Komputery mogą się już zachowywać jak my, ludzie, co według cybernetyków, znacznie przyspiesza prace nad sztuczną inteligencją. Dzięki rozbudowaniu algorytmu komputer bierze pod uwagę wszystkie możliwe struktury jednocześnie i porównuje, która z nich najlepiej pasuje do konkretnego zbioru danych. Prezentuje ją po zakończeniu analiz. Model Amerykanów ułatwi życie wielu naukowcom zmagającym się z natłokiem informacji oraz rzuci nieco światła na mechanizmy wykrywania porządku przez nasz mózg. Badacze uwzględnili szereg możliwych powiązań w obrębie danych, m.in. drzewo, schematy kołowe, hierarchię dominacji czy klastry. Ludzie cały czas nieświadomie klasyfikują dane. Tendencja ta znalazła wyraz w wielu odkryciach naukowych, m.in. w tablicy okresowej pierwiastków Dymitra Mendelejewa czy taksonomii Karola Linneusza. Tego typu zachowania zaczynamy przejawiać już we wczesnym dzieciństwie. Uporządkowujemy sobie świat, zaliczając przedmioty i istoty żywe do różnych kategorii, np. zwierząt, roślin, domów itp.
  2. Kiedy komputer znowu się zawiesza, często denerwujemy się na niego, jakby był człowiekiem. Wiele osób nadaje swojemu pecetowi czy laptopowi jakieś imię. To właśnie tego typu zjawiska zachęciły doktora Sörena Kracha i profesora Tilo Kirchera z Kliniki Psychiatrii i Psychoterapii Uniwersytetu w Aachen do zbadania zagadnienia, czemu i w jakich okolicznościach przypisujemy maszynom ludzkie cechy oraz jak się to przejawia na poziomie korowym. Mimo że postępy w zakresie nowoczesnych technologii i robotyki dokonują się coraz szybciej, stosunkowo mało uwagi poświęcono kwestii postrzegania maszyn przez człowieka i zasad, na jakich są im przypisywane różne atrybuty. Posługując się funkcjonalnym rezonansem magnetycznym (fMRI), Niemcy postanowili zbadać, jak wzrost "ludzkości" partnera interakcji moduluje aktywność kory. W ramach eksperymentu ochotnicy brali udział w prostej grze komputerowej. Przydzielano im jednego z czterech partnerów: 1) notebooka, 2) działającego robota z klocków lego, 3) humanoida (był nim BARTHOC Junior, który mierzy 65 cm i wygląda jak 5-letnie dziecko) oraz 4) człowieka. Każdy z partnerów wykonywał te same sekwencje ruchów, wolontariusze o tym jednak nie wiedzieli. Okazało się, że aktywność przyśrodkowej kory przedczołowej oraz prawej okolicy zbiegu płatów skroniowego i ciemieniowego (ang. temporoparietal junction, TPJ) rośnie proporcjonalnie do wzrostu "ludzkości" partnera. Im więcej ludzkich cech w wyglądzie, tym silniejsze rozświetlenie rejonów związanych z przypisywaniem stanów mentalnych. Potem wszyscy badani wypełniali kwestionariusz. Ujawnił on, że czerpali oni większą przyjemność z gry z partnerem bardziej przypominającym człowieka i że uznawali go za bardziej inteligentnego (PLoS ONE).
  3. Naukowcy z Uniwersytetu Tokijskiego dodali węglowe nanorurki do polimeru i uzyskali w ten sposób elastyczny, przewodzący obwód elektroniczny. Nowy materiał może zostać wykorzystany do produkcji wyświetlaczy, urządzeń wykonawczych czy prostych komputerów, które będzie można owinąć np. wokół mebli, stwierdza profesor Takao Someya. Niewykluczone jest wykorzystanie go do stworzenia czułej na nacisk skóry robotów. Dzięki niej mechanizmy byłyby np. w stanie dostosować siłę swojego uchwytu do przedmiotu, który mają przytrzymać. Profesor Someya informuje, że przewodność elektryczna polimeru z nanorurkami jest rekordowo wysoka jak na miękkie materiały. Wynosi ono bowiem 57 siemensów na centymetr. To mniej niż przewodność miedzi, ale o wiele rzędów wielkości więcej niż poprzednio zmierzona przewodność hybryd z polimerów i węglowych nanorurek. Materiał stworzony przez Japończyków ma i tę olbrzymią zaletę, że może się rozciągać do około 134 procent i nie wykazuje przy tym większych uszkodzeń. Jak zauważa profesor John Rogers z University of Illinois at Urbana-Champaign, prace zespołu Somei to kreatywne rozwinięcie już istniejących technologii. Układy elektroniczne, które można zginać, istnieją już od pewnego czasu. Jednak żaden z nich nie może zostać owinięty wokół nieregularnego przedmiotu, takiego jak np. ludzkie ciało. Tokijscy uczeni osiągnęli dobrą przewodność rozciągliwego materiału dzięki połączeniu długich, 1-milimetrowych rurek węglowych z cieczą jonową. W efekcie powstała czarna pasta, którą dodawali do rozpuszczonego polimeru. Uzyskali w ten sposób żel, który następnie przez 24 godziny suszyli powietrzem. Nanorurki stanowiły do 20% wagi całości. Wysuszony polimer był dość sztywny, dlatego maszynowo go podziurawiono tworząc strukturę podobną do sieci i pokryto ją elastycznym materiałem bazującym na krzemie. Profesor Ray Baughman z University of Texas mówi, że japońskie badania pokazały, że elastyczną elektronikę można produkować w skali przemysłowej. Uczeni z Tokio informują bowiem, że pojedyncza instalacja jest w stanie wytworzyć 10 ton nanorurek rocznie. Baughman zauważa jednak, że zwiększenie udziału nanorurek w polimerze może doprowadzić do zmniejszenia rozciągliwości materiału.
  4. Komputery potrafią pokonać arcymistrza szachowego, a od niedawna radzą sobie też z mistrzami w pokerze. Ostatnie wydarzenie pokazuje, że zbliża się moment, gdy ulegnie im mistrz w Go - uznawanej za ostateczny bastion przewagi człowieka nad maszyną. Podczas zorganizowanych w USA zawodów program MoGo pokonał o 1,5 punktu Myungwana Kima, mistrza, którego siła oceniana jest na 8 w 9-stopniowej skali dan. Nie możemy jeszcze mówić o całkowitej porażce człowieka, gdyż MoGo miał przewagę (handicap) 9, co oznacza, że na początku rozgrywki maszyna miała na planszy rozłożonych 9 kamieni. Jednak sukces oprogramowania pokazuje, jak bardzo zmieniły się możliwości maszyn. Jeszcze w 1997 roku komputer grający z człowiekiem, którego siła była oceniana na 1 dan, przegrał pomimo handicapu 25. Zwycięstwo maszyny zaskoczyło uczestników turnieju, którzy byli przekonani, że jak zwykle komputer przegra. Sam Kim stwierdził, że komputer grał bardzo dobrze. Mistrz ocenił jego siłę na dwa, może trzy dan, ale dodał, iż niektóre ruchy były na poziomie 5 dan. Przeciwnikiem Kima były wynajęte moce obliczeniowe superkomputerów. MoGo było obsługiwane w sumie przez 800 procesorów taktowanych zegarem o częstotliwości 4,7 GHz, a ich moc obliczeniowa wynosiła 15 teraflopsów.
  5. Profesor Mark Changizi z Rensselaer Polytechnic Institute opracowuje technikę, dzięki której nasze oczy i układ wzrokowy stałyby się programowalnym komputerem (Perception). Naukowcowi zależy na ujarzmieniu ich mocy obliczeniowych. Wymagałoby to napisania programu, który demonstrowałby reprezentację, poszczególne piętra układu wzrokowego przeprowadzałyby analizę obrazu, skutkiem czego byłoby postrzeganie wybranego obiektu. W idealnych okolicznościach wystarczyłby rzut okiem na złożone bodźce (oprogramowanie) i nasz układ wzrokowy (hardware) automatycznie i bez większego wysiłku wygenerowałby obraz, czyli efekt końcowy wyliczeń i przetwarzania danych. Naukowiec osiągnął już mały sukces, tworząc wzrokowe reprezentacje obwodów cyfrowych. Składają się one z sześcianów (tranzystorów), których odcień informuje nas, czy reprezentują one 0, czy 1. Changizi stworzył też wizualne bramki NOT, OR i AND oraz prostokąty reprezentujące ścieżki w układzie scalonym, którymi wędruje sygnał. Nasz układ wzrokowy w każdej sekundzie przetwarza olbrzymie ilości informacji, więc teoretycznie rzut oka na rysunek powinien skutkować pojawieniem się wyniku obliczeń. Oczywiście bardzo złożona plątanina sześcianów, ścieżek i bramek wygląda zbyt skomplikowanie, byśmy mogli ją "rozszyfrować". Changizi uważa jednak, że korę wzrokową można by wytrenować podobnie, jak trenujemy się w czytaniu. Koncepcja Changiziego to kolejny, po komputerach z DNA czy sieciach neuronowych, pomysł na skonstruowanie maszyny liczącej wykorzystującej biologię człowieka.
  6. Czy utwory komputerowe i grane przez człowieka wpływają tak samo na umysł odbiorcy? Wydawałoby się, że skoro melodia jest identyczna, tak właśnie powinno się dziać. Nic bardziej mylnego (PLoS One). W ramach eksperymentu brytyjsko-niemiecki zespół odtwarzał ochotnikom sonaty fortepianowe grane przez komputer bądź zawodowego muzyka. Tylko ten drugi był w stanie naprawdę poruszyć słuchacza. Badania obrazowe mózgu wyjaśniły, dlaczego się tak dzieje. Chociaż muzyka komputerowa wywoływała reakcję emocjonalną w obrębie jądra migdałowatego (amygdala), zwłaszcza w odpowiedzi na nieoczekiwane akordy, to nie była ona tak silna, jak w przypadku tego samego utworu granego przez człowieka. Dr Stefan Koelsch z Sussex University i badacze z Instytutu Nauk o Mózgu Maxa Plancka zauważają, że nawet niewielkie szczególiki wpływają na efekty oddziaływania muzyki, a zatem również na muzykoterapię. Dopiero zaczynamy odkrywać, w jaki sposób możemy systematycznie wpływać na aktywność skóry, serca, płuc i układu hormonalnego, by wymienić tylko kilka, za pomocą muzyki. Jestem pewien, że ostatecznie uda się stworzyć wysoce efektywną metodę terapii. W studium wzięło udział 20 niezwiązanych z muzyką osób. Utrwalano przewodność ich skóry (która zmienia się w wyniku pocenia, a na to z kolei wpływa stopień pobudzenia emocjonalnego jednostki) oraz aktywność elektryczną mózgu. Chociaż ochotnicy uznawali się za osoby niemuzykalne i nie potrafili grać na żadnym instrumencie, ich mózg reagował na zmiany w melodii (nieoczekiwane akordy czy zmianę tonacji). Wskazuje to na zrozumienie zasad "muzycznej gramatyki", która przypomina gramatykę języka. Reakcja na gramatykę muzyki komputerowej i ludzkiej nie różniła się, co zaskoczyło naukowców. Twierdzą oni, że stało się tak, ponieważ jest to proces rozumowy, analityczny. Jednak następująca później reakcja, która stanowi próbę zrozumienia pasażu, była już dużo większa w przypadku utworu odgrywanego przez pianistę. Tak oddziałuje na słuchaczy tzw. wyraz artystyczny muzyka. Mózg z większym prawdopodobieństwem szuka więc znaczenia w utworach granych przez człowieka.
  7. W laboratoriach Microsoftu trwają prace nad nowym sposobem komunikacji pomiędzy człowiekiem a komputerem. Inżynierowie z Redmond we współpracy z naukowcami z University of Washington w Seattle pracują nad zakładaną na ramię opaską, która będzie rozpoznawała ruchy palców, rejestrując aktywność mięśni. MUCI (muscle-computer interface) ma przydać się tam, gdzie osoba sterująca komputerem będzie zaangażowana w inne czynności, uniemożliwiające skorzystanie z klawiatury. Opaska założona poniżej łokcia pozwoli np. na sterowanie komputerem podczas jazdy samochodem. Wystarczy, że, trzymając dłonie na kierownicy, będziemy poruszali palcami. Z MUCI skorzystają też np. osoby biorące udział w firmowych spotkaniach. Specjaliści pracujący nad opaską mówią, że inne metody sterowania maszyną, takie jak rozpoznawanie mowy czy gestów, są wciąż bardzo niedoskonałe, a ich wykorzystanie w wielu sytuacjach jest niemożliwe. Obecnie prototypowa opaska składa się z 10 czujników, które odczytują aktywność elektryczną mięśni. Podobne metody stosuje się w prototypowych nowoczesnych protezach kończyn. Problem jednak w tym, że ich użycie wymaga długotrwałych ćwiczeń pod okiem eksperta. Urządzenie, które ma być wykorzystywane przez przeciętnego człowieka, nie może być jednak aż tak skomplikowane w obsłudze. MUCI ma więc być maksymalnie proste. Użytkownik powinien móc założyć opaskę bez konieczności zastanawiania się, czy założył ją prawidłowo i czy czujniki są w odpowiedniej pozycji. Następnie czujniki same się kalibrują, w zależności od położenia opaski. W przyszłości opaska może przybrać formę zegarka czy biżuterii. Dotychczas przeprowadzono badania na 10 ochotnikach. Wykazały one, że prototyp jest w stanie prawidłowo rozpoznać ruchy wszystkich 10 palców z 95-procentową dokładnością. Co więcej, rozpoznaje też trzy różne siły nacisku palca. Urządzenie działa bardzo dobrze, jeśli ramię jest nieruchome i np. opiera się o biurko - mówi Desney Tan z Microsoftu. Podkreśla jednak, że MUCI znajduje się w bardzo wczesnej fazie rozwoju i potrzeba jeszcze dużo pracy, by uzyskać równie wielką dokładność w czasie, gdy użytkownik będzie ruszał całym ramieniem. Pozostaje też problem wydawania poleceń. Niektóre z nich będą banalnie proste. Odpowiedni ruch określonym palcem podczas jazdy samochodem umożliwi odebranie telefonu. Naukowcy zastanawiają się jednak, jak za pomocą MUCI wprowadzać tekst. Można skorzystać z alfabetu Morse'a, ale mamy nadzieję, że nie jest to jedyne wyjście, bo nie jest łatwo się go nauczyć, a pisanie za jego pomocą jest powolne - mówi Tan. Stephen Brewster, specjalizujący się w interfejsach komputerowych naukowiec z University of Glasgow, jest pod wrażeniem osiągnięć Amerykanów. Uzyskanie 95-procentowej dokładności przy rozpoznawaniu prostych gestów to niezły wynik. To daje możliwość sterowania urządzeniami w czasie gdy, na przykład, niesiesz ciężkie walizki - mówi. Dodaje jednak, że jeśli MUCI ma być wykorzystane do wprowadzania tekstu, to musi zostać udoskonalone.
  8. W czasach, gdy większość interfejsów komputerowych coraz intensywniej korzysta z zaawansowanych efektów graficznych, warto zwrócić uwagę na takie, w których zdobycze technologii nie służą jedynie pustym pokazom. Szczególnie interesujący jest projekt systemu nazwany ZEN (Z-axis ENabled), który według założeń pomysłodawcy umożliwi swobodne korzystanie z komputera osobom niewidomym. Zestaw składa się ze specjalnego oprogramowania, oraz komputera o nazwie Sandbox PC. Maszyna otrzyma ekran z "aktywną powierzchnią", która będzie mogła zmieniać kształt w sposób wyczuwalny dotykiem. Właściwość ta zostanie wykorzystana nie tylko do wyświetlania znaków alfabetu Braille'a, ale też zwykłych okien czy ikon, co pozwoli niewidomym na normalną obsługę komputera. Sercem maszyny jest matryca drobnych włókien odpowiadających poszczególnym pikselom obrazu. Włókna te mają podnosić się i opadać, zmieniając kształt powierzchni. Dzięki nim możliwe będzie również odczytywanie ruchów użytkownika – zadziałają one jak miniaturowe przyciski. Dodatkową pomocą w obsłudze ZEN-a będzie system dźwiękowy Sonicpoint, wskazujący miejsce ekranu, które wymaga interwencji użytkownika. Aby uświadomić sobie, jak duży skok technologiczny zaoferuje ZEN osobom niewidzącym, wystarczy wspomnieć, że obecnie mogą one korzystać z archaicznych, elektromechanicznych czytników alfabetu Braille'a oraz automatów "czytających" zawartość ekranu na głos. Bardziej zdeterminowani uczą się obsługi komputera "na pamięć" wyłącznie za pomocą klawiatury (wraz z przemieszczaniem wskaźnika myszy), jednak nowe gadżety graficzne skutecznie utrudniają opanowanie tej sztuki. Jeśli opisywane urządzenie kiedykolwiek powstanie, z pewnością zmieni bardzo niekorzystne proporcje związane z używaniem komputerów przez niewidomych: na 50 milionów osób codzienny kontakt z pecetami ma jedynie 1,5 miliona. Szanse na tanią produkcję masową są całkiem spore, a to dlatego, że "dotykany" ekran może się przydać również osobom bez kłopotów ze wzrokiem. Wystarczy wspomnieć, że powierzchnia urządzenia będzie mogła zastąpić klawiaturę i mysz, czy nawet zmienić się konsolę do montażu wideo czy klawiaturę instrumentu muzycznego. Ponadto komputer tego typu zajmuje na biurku niewiele miejsca. Niestety, "aktywna powierzchnia" jeszcze nie istnieje. Podobno przy obecnym tempie rozwoju nanotechnologii jej powstanie jest całkiem prawdopodobne.
  9. Dzięki jednemu z miłośników historii podboju kosmosu każdy może stać się właścicielem AGC (Apollo Guidance Computer) - maszyny cyfrowej używanej przez astronautów podczas misji księżycowych. Pełną dokumentację, umożliwiającą odtworzenie komputera, opracował John Pultorak, 54-letni inżynier oprogramowania zatrudniony w firmie Lockheed Martin. Instrukcja liczy aż 1000 stron i zawiera wszystkie schematy, opis działania, a także oprogramowanie komputera. Urządzenie opracowane w latach 60. ubiegłego wieku dysponowało mocą obliczeniową porównywalną z 8-bitowymi komputerami domowymi. Zegar maszyny pracował z częstotliwością 1 MHz, do przetwarzania danych służyły 16-bitowe rejestry procesora, a pamięć AGC mieściła około 4 tysięcy "słów" w pamięci RAM oraz ponad 32 tysiące w pamięci ROM. Sterujący jego pracą system operacyjny o nazwie EXEC był w stanie wykonywać do 8 zadań jednocześnie. Komunikację z komputerem umożliwiał panel DSKY (DiSplay/KeYboard), zawierający przypominającą kalkulator klawiaturę oraz wyświetlacz, mieszczący kilka wierszy cyfr. Podczas każdej wyprawy księżycowej na pokładzie pojazdów kosmicznych znajdowały się dwa komputery i trzy panele (w orbiterze zainstalowany był jeden AGC i dwa DSKY, a w lądowniku - po jednym z tych urządzeń). Chętni do odtworzenia opisywanych maszyn mogą odnaleźć dokumentację w witrynie Galaxiki. Zanim jednak przystąpią oni do pracy, warto ich przestrzec, że Pultorakowi majsterkowanie zajęło aż cztery lata (około 2100 roboczogodzin), a cały projekt pochłonął kwotę 3000 USD.
  10. Mimo licznych doniesień o coraz doskonalszych technologiach, dzięki którym maszyny dysponują własnym "wzrokiem", eksperci ostrzegają przed nadmiernym optymizmem. Naukowcy ze słynnej uczelni MIT (Massachusetts Institute of Technology) twierdzą, że niemal ludzki sposób oglądania świata przez komputery w rzeczywistości jest efektem nie stopnia zaawansowania algorytmów analizujących obraz, lecz odpowiednio dobranych warunków testów i demonstracji. Według badaczy, czasy "inteligentnych" samochodów i sztucznych oczu dla niewidomych są bardziej odległe, niż mogłoby wynikać z obietnic niektórych zespołów badawczych. Co ciekawe, ostrzeżenie to jest wynikiem eksperymentu, który dał... zbyt dobre wyniki. Problemem okazało się powszechne testowanie systemów analizy obrazu za pomocą bazy zdjęć nazwanej Caltech101. Według MIT, obrazy znajdujące się w tej bazie zostały nieprawidłowo dobrane, co oznacza, że wytrenowane na niej oprogramowanie zawiedzie w rzeczywistych warunkach. Wspomniana kolekcja zawiera bowiem zdjęcia wykonane przez fotografów, którzy z reguły posługiwali się pewnymi metodami kompozycji kadru czy doboru tematów. W świecie rzeczywistym automat "zobaczy" przez kamerę zupełnie inne obrazy - mniej estetyczne, ale za to bardziej różnorodne i nie zawsze prawidłowo oświetlone. Zmienność obrazu może sprawiać problemy systemom, których struktura jest wzorowana na najprostszych mechanizmach analizy obrazu przez mózg. Modelom tym brakuje możliwości przetwarzania informacji na wyższym poziomie, gdzie już nie bada się jedynie położenia linii, ale kształty, powierzchnie czy odległości między obiektami. Naukowcy z MIT skonstruowali taki właśnie prymitywny model, aby sprawdzić rozmiary jego porażki w konfrontacji z bazą Caltech 101. Tymczasem ich "zabawka" spisała się doskonale, dorównując, a czasem nawet przewyższając pięć najnowocześniejszych obecnie systemów rozpoznawania obrazu. Następnie badacze przeprowadzili bardziej przemyślany test. Za pomocą obrazów samolotów i samochodów badali reakcję systemu na zmienne położenie, rozmiar i orientację obiektów pokazywanych komputerom. Mimo jedynie dwóch typów przedmiotów do rozpoznania, komputer miał spore problemy odróżnieniem ich od siebie. Wniosek okazał się niepokojący dla twórców komputerowego wzroku: "dobra jakość" modelu nie wynikała z jego rzeczywistych możliwości, lecz z obrazów testowych, które miały niewiele wspólnego z różnorodnością rzeczywistego świata. Autorzy opisanych badań wzywają do udoskonalenia obecnie stosowanych standardów oraz lepszego doboru materiałów "treningowych". Dzięki temu możliwe stałyby się dokładniejsze porównywanie różnych technologii i ocena postępów. Ponadto autorzy eksperymentu uważają, że nim komputery upodobnią się do ludzkiego mózgu, naukowcy powinni zrozumieć, dlaczego rozpoznawanie przedmiotów jest tak trudne, a możliwości mózgu - tak imponujące.
  11. Komputery optyczne to maszyny, które – gdy wreszcie powstaną – mają zastąpić znane nam dzisiaj pecety bazujące na układach elektronicznych. Okazuje się, jednak, że optronika to nie jedyny sposób na komputer przyszłości. Jak twierdzą fizycy z singapurskiego National University, możliwe jest zbudowanie urządzeń fononowych, a więc takich, w których do prowadzenia obliczeń będą wykorzystywane fale cieplne. W pracy, którą opublikowali Baowen Li oraz Lei Wang opisano m.in. podstawowy element komputera fononowego: termiczny odpowiednik tranzystora polowego, w którym regulacja przepływu ciepła między źródłem a drenem możliwa jest dzięki impulsom pochodzącym z bramki. Używając takich podzespołów można budować elementy logiczne – zaprezentowano już plany bramek sumy oraz iloczynu logicznego, a także negacji. Stąd zaś droga do poszczególnych podzespołów klasycznego mikroprocesora jest relatywnie prosta. W obecnej chwili wspomniany tranzystor cieplny istnieje jedynie na papierze. Jego wynalazcy twierdzą jednak, że od zbudowania prototypu może nas dzielić zaledwie kilka lat. Podobna sytuacja miała miejsce w przypadku termicznego prostownika, który udało się skonstruować w ubiegłym roku. Wśród zalet, jakie będą miały komputery termiczne wymienia się niskie zużycie energii oraz możliwość zasilania ich "odpadami cieplnymi", powstającymi w czasie pracy tradycyjnych urządzeń elektronicznych.
  12. Nie ustają eksperymenty z nowymi sposobami obsługi komputera. Jednak mimo iż próbowano już sterować elektronicznymi urządzeniami za pomocą wstrząsów, gestów wykonywanych przed kamerą, czy nawet myśli, wciąż najlepiej sprawdzają się zwykła myszka i klawiatura. Najnowszy pomysł na obalenie koalicji gryzoni z klawiszami zaprezentowali badacze z Georgia Institute of Technology. Wymyślili oni bowiem sposób na zastąpienie myszki... dmuchaniem na ekran. Co ciekawe, opracowany przez nich system jest w stanie dość precyzyjnie określić kierunek strumienia powietrza, wykorzystując nagrania z jednego tylko mikrofonu (np. wbudowanego w notebooka). Okazuje się bowiem, że przemieszczaniu się "odmuchiwanego" celu na ekranie towarzyszy dość łatwa do rozpoznania zmiana charakterystyki szumu docierającego do mikrofonu. Technika nosząca nazwę BLUI (Blowable and Localized User Interaction) po jest w stanie określić pozycję kursora z dokładnością od 62% (w wypadku podzielenia ekranu na 36 pól) do 100% (9 pól). Jak widać jej precyzja jest zbyt mała, aby można było sobie "pogwizdać" na Excela, ale już teraz możnaby znaleźć dla niej szereg przydatnych zastosowań, i to nie tylko w grach wideo.
  13. Firma PopCap opublikowała kolejny raport dotyczący gier wideo. Z badań wynika, że aż 72% rodziców/dziadków nie pozwoliłoby swoim pociechom grać w brutalne gry. Zakaz nie obejmuje jednak w równym stopniu dziewcząt i chłopców. Chociaż niemal połowa (48%) opiekunów dzieci powyżej 14. roku życia przychylała się do wprowadzenia odpowiednich obostrzeń, de facto zakaz obejmował 60% dziewczynek i tylko 37% chłopców. Jak dr Carl Arinoldo, nowojorski psycholog, specjalista z zakresu relacji rodzice-dziecko, wyjaśnia ten przejaw nierównego traktowania płci? Rodzice nieco bardziej chronią swoje córki niż synów, dając chłopcom więcej swobody i niezależności. Choć to trochę już staromodne podejście, postępuje tak wielu rodziców. Co gorszego może się jednak stać córce niż synowi siedzącemu przed komputerem w domu? O tym PopCap nie wspomina...
  14. Lenovo, które przed laty wsparło chiński komitet organizacyjny Igrzysk Olimpijskich 2008 kwotą 1,5 miliona dolarów, teraz oferuje klientom komputery z olimpijskim logo. Firma proponuje stacjonarne maszyny z serii Lenovo 3000. W większości modeli zastosowano procesory Intela, w tym czterodzeniowe Core 2 Quad (w modelu J200p). Z kolei posiadacze J205 znajdą wewnątrz procesor AMD. W każdym z komputerów zastosowano również sześć portów USB, zintegrowany układ graficzny, gigabitowy Ethernet oraz technologie zabezpieczające przed dostępem do wnętrza komputera. Wybrane modele mogą zawierać też nagrywarkę DVD czy kość TPM 1.2, która odpowiedzialna jest za szyfrowanie danych.
  15. Intel, Google i kilka innych firm oznajmiło, że mają zamiar pracować nad poprawieniem wykorzystania energii przez komputery.Celem wspomnianych przedsiębiorstw jest promowanie takiego zasilacza dopecetów i serwerów, który charakteryzowałby się ponad 90-procentowąwydajnością. Urządzenia takie pozwoliłoby zaoszczędzić energię i zredukować temperaturę pracy komputera. Obecnie, jak poinformował Urs Hölzle z Google’a, połowa energii dostarczanej do pecetów jest marnowana. Zamienia się ona w bezużyteczne ciepło lub jest tracona podczas konwersji z prądu zmiennego na stały. Nieco lepszą wydajnością mogą poszczycić się serwery. W ich przypadku marnowane jest „tylko” 30% energii. Lepiej skonstruowane zasilacze i podzespoły pozwoliłyby na wykorzystanie co najmniej 90% pobranej energii. Google ma na tym polu spore osiągnięcia. Firma twierdzi, że jej serwery wykorzystują od 90 do 93 procent dostarczanej im energii. To nie jest problem technologiczny. Już w tej chwili wykorzystujemy zasilacze, których skuteczność wynosi 90 procent – mówi Hölzle. Głównym problemem jest cena. Przeciętny pecet, w którym zastosowano by lepiej wykorzystujące energię komponenty, zdrożeje o 20 dolarów. W przypadku serwera cena wzrośnie o 30 dolarów. Koszty można by obniżyć, jeśli wspomniane komponenty produkowane byłyby na skalę masową. Ponadto pomóc też może odpowiednia polityka koncernów energetycznych. Kalifornijska firma Pacific Gas and Electric udziela swoim klientom zniżki na dostarczaną energię, jeśli używają oni energooszczędnych komputerów.
  16. Shuttle, niegdyś lider rynku małych komputerów (SFF – small form factor), który od dwóch lat ma poważne kłopoty, postanowił najwyraźniej powrócić do dawnej świetności. Na targach Computex firma pokazała trzy nowe linie barebone’ów. Serię D’VO reprezentuje maszyna XPC Barebone SG33G5M. Korzysta ona z chipsetu G33 Intela oraz mostka południowego ICH9DH. Współpracuje więc z procesorami Core 2 Quad, Core 2 Duo, serią E2000 oraz z Celeron 400 dla podstawki Socket 775. W komputerze można zainstalować do 4 gigabajtów pamięci operacyjnej DDR2-800. Urządzenie oferuje 1 port PCI Express x16, jeden PCI, łącza Gigabit Ethernet, Bluetooth i FireWire. Ponadto można w nim zastosować dyski twarde w interfejsem SATA II i połączyć je w macierz RAID. Użytkownik skorzysta też z 2 portów eSATA, ośmiokanałowego dźwięku, 6 portów USB oraz wbudowanego rdzenia graficznego Intel GMA3100 z obsługą HDMI i HDCP. Urządzenie wyposażono też w czytnik linii papilarnych i 250-watowy zasilacz. Jego wymiary to 310x200x185 milimetrów. W ramach serii Prima Shuttle pokazało dwa urządzenia. Są to XPC Barebone SX38P3 Deluxe oraz XPC Barebone SP35P3 Deluxe. Zasadnicza różnica pomiędzy oboma komputera tkwi w wykorzystywanym chipsecie, a co za tym idzie, w możliwej konfiguracji. Maszyna SX38P3 korzysta z intelowskiego chipsetu X38 i mostka południowego ICH9R. Pasują do niej procesory Core 2 Extreme, Core 2 Quad, Core 2 Duo oraz seria E2000 dla podstawki Socket 775. Użytkownik może skorzystać nawet z ośmiogigabajtowej pamięci RAM DDR2-800, dwóch slotów PCI Express x16, łączy Gigabit Ethernet, FireWire, Bluetooth oraz dysków SATA II i macierzy RAID. Możliwe jest też podłączenie urządzeń eSATA. Komputer posiada osiem wyjść USB, czytnik linii papilarnych, ośmiokanałowy układ dźwiękowy i zasilacz o mocy 400 watów. Jego wymiary to 325x210x220 milimetrów. Z kolei SP35P3 wyposażony został w chipset P35 Intela i mostek południowy ICH9R. Współpracuje on z tymi samymi procesorami, co SX38P3, z wyjątkiem układów Core 2 Extreme. Wśród najważniejszych różnić należy wymienić obsługę tylko jednego złącza PCI Express x16, ale za to mamy tutaj złącze PCI. Kolejna różnica to sześć, a nie osiem jak w poprzednio opisywanym modelu, łączy USB. Poza tym obie maszyny są identyczne. Ostatnią z nowych serii jest Glamour. Tworzą ją obecnie trzy modele: XPC Barebone SG33G5 (z chipsetem G33 Express i mostkiem południowym ICH9DH), XPC Barebone SN68PTG6 Deluxe (combo karty graficznej GeForce 7050 PV i chipsetu nForce 630a) i XPC Barebone SN68SG2 (combo GeForce 7025 i chipsetu nForce 630a). Pierwszy z nich pozwala na zastosowanie intelowskich procesorów Core 2 Quad, Core 2 Duo oraz układów z serii E4000, E2000 i Celeron 400. Mogą one współpracować z 4 gigabajtami pamięci DDR2-800, a użytkownik ma do dyspozycji jedno złącze PCI Express x16, 1 PCI oraz technologie Gigabit Ethernet, Bluetoothi FireWire. W chipset wbudowany jest też układ graficzny Intel GMA3100, obsługujący DirectX9. Dwa pozostałe komputery współpracują z procesorami AMD, a nie Intela. Maszyna SN68PTG6 obsługuje kości Sempron, Athlon, Athlon X2 oraz przyszłe układy Phenom dla podstawki AM2+, a SN68SG2 – Sempron, Athlon i Athlon X2 oraz podstawkę AM2. Od wcześniej opisywanych komputerów różnią się też rdzeniami graficznymi (GeForce 7050 i GeForce 7025), które obsługują biblioteki DirectX9.
  17. Specjaliści z indyjskiego centrum badawczo-rozwojowego Microsoftu stworzyli oprogramowanie, które umożliwia dwóm osobom jednoczesną pracę przy jednym monitorze komputerowym. Takie rozwiązanie może sprawdzić się w firmach i szkołach w krajach rozwijających się, które będą mogły zaoszczędzić na wydatkach na sprzęt. Nawet w domach, gdzie jest jeden komputer, dwaj członkowie rodziny będą mogli jednocześnie na nim pracować. Program dzieli monitor na dwie części i w każdej z nich wyświetla inne informacje. Każdej z nich można przyporządkować własny system operacyjny, pulpit, uruchomione programy, kursor myszki i klawiaturę. Umożliwiamy dwóm użytkownikom na niezależną pracę na jednej maszynie. Mogą dzielić moc procesora i ekran komputera – mów Udai Singh Pawar, lider zespołu, który stworzył nowe oprogramowanie. Prototyp, na którym zademonstrowano działanie oprogramowania, wykorzystywał 19-calowy monitor, ale program działa też z 17- i 15-calowymi wyświetlaczami. Rozwiązanie jest całkowicie programowe, więc nie wymaga zakupu żadnego nowego sprzętu. Jedyne co trzeba zrobić, to zainstalować program oraz podłączyć do komputera dodatkową myszkę i klawiaturę. Program pozwala na uruchomienie dwóch niezależnych sesji systemu Windows. Umożliwia też współpracę, gdyż w razie potrzeby "właściciel” jednej z połówek ekranu może dokonywać operacji na sąsiadującej połowie.
  18. Sarah Shuwairi i jej zespół z Uniwersytetu Nowojorskiego badali 30 czteromiesięcznych niemowląt, pokazując im rysunki ze złudzeniami optycznymi. Chodziło o zbadanie zdolności do tworzenia trójwymiarowego obrazu na podstawie dwuwymiarowych szkiców. Dzieci położono naprzeciwko ekranów komputera, na których naprzemian wyświetlano możliwe i niemożliwe obrazy 3D. Nagrywano, jak długo maluchy przyglądały poszczególnym obiektom. Okazało się, że niemowlęta zdecydowanie dłużej patrzyły na figury niemożliwe. Można więc przypuszczać, iż nawet tak młodzi ludzie dostrzegają przynajmniej część wskazówek dotyczących trójwymiarowości, co stanowi początek percepcji spójności obiektów (czyli, w niektórych przypadkach, szukania sensu w bezsensie). Shuwairi uważa, że eksperymenty jej zespołu wyjaśniają, jak rozwija się niemowlęce rozumienie świata fizycznego.
  19. Naukowcy z University of New Hampshire uważają, że w genezie otyłości związki chemiczne obecne w wielu artykułach codziennego użytku odgrywają nie mniejszą rolę niż ćwiczenia oraz dieta, a właściwie ich brak. Chodzi tu o substancje opóźniające zapłon tapicerowanych mebli, dywanów, komputerów, suszarek czy kuchenek mikrofalowych. Polibromowane etery difenylowe (ang. polybrominated diphenyl ethers, PBDE) wynaleziono w latach 60. XX wieku. Ich zadanie polega na opóźnieniu momentu zapłonu. Ocenia się, że dziennie przeciętny Amerykanin styka się ze 100 produktami zawierającymi PBDE. Przedstawiciele przemysłu chemicznego twierdzą, że polibromowane etery difenylowe zmniejszają o 45% odsetek zgonów i obrażeń powodowanych przez ogień. W miarę zbierania dokumentacji dot. wpływu PBDE na organizm ludzki i środowisko rodzi się jednak coraz więcej pytań odnośnie bezpieczeństwa ich stosowania. W środowisku wykrywa się je tak samo długo, jak DDT czy PCB (polichlorowane bifenyle). Unia Europejska wprowadziła nawet zakaz wykorzystywania dwóch eterów. Gale Carey, Anthony Tagliaferro, Deena Small i zespół chcą sprawdzić, w jaki sposób PBDE wpływają na powstawanie i magazynowanie tkanki tłuszczowej. Wiemy, że PBDE rozpuszczają się w tłuszczach [...]. Co robią, kiedy już się tam znajdą? Nikt do tej pory nie zadał takiego pytania — wyjaśnia Carey. W przyszłych badaniach naukowcy planują wystawić szczury laboratoryjne na działanie polibromowanych eterów podczas ciąży i laktacji. Carey sądzi, że to dwa najistotniejsze pod tym względem etapy życia. Na poziomie molekularnym zespół będzie obserwował ekspresję genów oraz wpływ PBDE na komórki macierzyste w obrębie tkanki tłuszczowej. Etery naśladują działanie estrogenów oraz hormonów tarczycy. Wskutek tego komórki z większym prawdopodobieństwem przekształcają się w tkankę tłuszczową. Zamierzam sprawdzić, jak zmiany w sygnalizacji wpływają na ekspresję genów. Z wcześniejszych prac pani profesor wynika, że chroniczna ekspozycja na działanie PBDE powoduje, że komórki tkanki tłuszczowej stają się mniej wrażliwe na insulinę. A stąd tylko krok do cukrzycy typu 2. Ponadto komórki tłuszczowe szczurów (samców) karmionych przez miesiąc eterami zachowywały się jak komórki zwierząt otyłych. Działo się tak, mimo że ich waga nie odbiegała od masy ciała gryzoni z grupy kontrolnej. Tagliaferro wspomina, że PBDE zaburzają poziom hormonów tarczycy, co z kolei oddziałuje na wydatkowanie energii. To czynnik o wiele ważniejszy dla wagi ciała niż objadanie się hamburgerami czy niechęć do ćwiczeń fizycznych.
  20. Agencja informacyjna Xinhua poinformowała, że chińscy naukowcy wszczepili do mózgów gołębi elektrody, które pozwalały na zdalne sterowanie ich lotem. Dzięki mikroelektrodom pracownicy centrum robotyki na Shandong University of Science and Technology "nakazywali" ptakom lecieć w prawo, w lewo, w dół lub w górę. Implanty stymulują różne obszary mózgu. Sygnały elektryczne wysyłane za pośrednictwem komputera naśladują impulsy generowane w naturze przez sam mózg — tłumaczy nadzorujący badania Su Xuecheng. Podobne eksperymenty jak z gołębiami przeprowadzono dwa lata temu z myszami. Ich autorem był również Xuecheng. Chińczyk uważa, że "zwierzęce roboty" doprowadzą do połączenia dwóch gałęzi nauki, biologii oraz komunikacji elektronicznej, i stworzenia całkiem nowej. Według niego, to niepowtarzalna szansa na opracowanie metod leczenia chorób, w których dochodzi do uszkodzenia nerwów.
  21. Microsoft zaktualizował swoje wymagania dotyczące komputera, na którym został zainstalowany Windows Vista. Koncern podzielił komputery na dwie kategorie. Pierwszą z nich stanowią maszyny, które mogłyby zostać oznaczone logo Windows Vista Capable PC. Taki komputer powinien zostać wyposażony w procesor taktowany zegarem o częstotliwości co najmniej 800 MHz, 512 megabajtów pamięci RAM oraz układ graficzny kompatybilny z bibliotekami DirectX 9. Tego typu maszyna pozwoli na uruchomienie podstawowych funkcji każdej edycji Visty. Aby korzystać z pełnych możliwości nowego systemu Microsoftu, w tym z interfejsu Aero, trzeba go zainstalować na znacznie bardziej rozbudowanym sprzęcie. Komputer oznaczony jako Windows Vista Premium Ready PC to maszyna, która korzysta z 1-gigahercowego procesora, co najmniej gigabajta pamięci operacyjnej, napędu DVD, karty dźwiękowej i sieciowej oraz układu graficznego ze sterownikami WDDM (Windows Display Driver Model) zgodnego z DirectX 9 wyposażonego w co najmniej 128 megabajtów pamięci.
  22. Na jednej z internetowych stron pojawiła się oferta sprzedaży magnetofonu kasetowego montowanego... w pececie. Urządzenie pasuje do zatoki dla napędów CD i jest kompatybilne z systemem Windows 98 i nowszymi. Wśród wymagań systemowych, koniecznych do skorzystania z magnetofonu producent wymienia kartę dźwiękową oraz procesor Pentium III taktowany zegarem o częstotliwości 700 MHz. W zestawie z magnetofonem użytkownik otrzymuje zestaw niezbędnych kabli, oprogramowanie i podręcznik. Magnetofon PlusDeck 2c może służyć zarówno do słuchania muzyki bezpośrednio z taśm, jak i do konwersji nagrań na format cyfrowy i zapisania ich na dysku twardym komputera. Pasmo przenoszenia magnetofonu wynosi 30-18 000 Hz, z odległość sygnału do szumu – 55 dB. Producent udziela rocznej gwarancji. Cenę PlusDecka ustalono na około 130 dolarów.
  23. Niewiele osób wie, że popularne zioło przyprawowe, kolendra, może pomóc cierpiącym z powodu pogorszenia wzroku. Według hinduskiego Central Council for Research in Ayurveda and Siddha, które podlega Ministerstwu Zdrowia i Dobrostanu Rodziny, picie niewielkich ilości soku z liści kolendry z miodem korzystnie wpływa na wzrok. Zaleca się przyjmowanie 2 do 3 łyżeczek ekstraktu z 5-10 g miodu. Mikstura pomaga w największym stopniu dzieciom, osobom w podeszłym wieku oraz ludziom, którzy spędzają wiele godzin przed monitorem komputera.
  24. Rosyjski arcymistrz szachowy Władimir Kramnik, przegrał z komputerem Deep Fritz. Rozgrywka składała się z sześciu partii, które zakończyły się dwoma zwycięstwami maszyny i czterema remisami. Ostatnią partię komputer wygrał w ciągu 5 godzin, po 47 ruchach. Trzydziestojednoletni Kramnik zabrał ze sobą do domu 500 000 dolarów nagrody. Gdyby wygrał z komputerem, jego konto wzbogaciłoby się o dwukrotnie większą kwotę. Rosjanin spotkał się już w Deep Fritzem w 2002 roku. Wtedy po ośmiu partiach był remis. Od tamtego czasu oprogramowanie zostało jednak ulepszone i komputer jest obecnie przeanalizować milion ruchów w ciągu sekundy.
  25. Od połowy października producenci pecetów zmagają się z brakiem podzespołów potrzebnych do budowy komputerów. Na rynku jest zbyt mało procesorów, układów pamięci, chipsetów i baterii litowo-jonowych. Eksperci o braki obwiniają... Windows Vista. Wytwórcy komputerów starają się spełnić wyższe niż przeciętne wymagania systemu i w związku z tym potrzebują więcej układów scalonych. Muszą być one również bardziej nowoczesne. Najwięksi tajwańscy producenci notebooków – Quanta, Compal, Winstron, Inventec i Asus – konkurują ze sobą o układy DRAM, tak, by ich komputery spełniały wymagania najnowszego OS-u Microsoftu. Z kolei przedstawiciele Intela informują, że ich firma nie nadąża z produkcją procesorów i chipsetów. Wyrazili jednocześnie nadzieję, że przed końcem roku rozwiążą ten problem.
×
×
  • Dodaj nową pozycję...