Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' komputer' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 6 wyników

  1. Dobór odpowiednich podzespołów w komputerze ma ogromny wpływ na płynność rozgrywki czy wydajność wykonywanej pracy. Warto dowiedzieć się, które komponenty mają największe znaczenie pod tym względem. Procesor – serce komputera CPU, czyli właśnie procesor, to miejsce, w którym nieustannie przeprowadzane są obliczenia odpowiedzialne za pracę całego systemu. Przez centralną jednostkę obliczeniową przechodzą wszystkie polecenia do wykonania przez komputer. Szybkość tego podzespołu określa się na podstawie taktowania zegara, czyli liczby cykli otwierania i zamykania tranzystorów na sekundę. Wartość ta w nowych układach jest naprawdę wysoka – 1 GHz oznacza miliard cykli na sekundę, a taktowanie najnowszych procesorów może nawet przekraczać 5 GHz. Dodatkowo parametr ten jest zazwyczaj podawany w odniesieniu do jednego rdzenia, podczas gdy najpopularniejsze modele korzystają z 4, 6 lub 8 rdzeni. Liczba cykli bezpośrednio wyznacza liczbę operacji, które może wykonać CPU – wyższe taktowanie przekłada się zatem na szybsze działanie aplikacji, gier i każdego innego procesu. Wymiana procesora może dodatkowo pociągnąć za sobą konieczność zastosowania innej płyty głównej. Powodem jest obecność różnych gniazd do obsługi procesora. Intel i AMD korzystają z nieco odmiennych formatów. Co więcej, poszczególne generacje CPU zwykle wprowadzają drobne zmiany w tej kwestii. Choć płyta główna sama w sobie ma niewielki wpływ na szybkość komputera, jej konfiguracja wpływa na dobór innych komponentów, takich jak właśnie procesor czy RAM. Aby znaleźć najlepszą płytę główną dla siebie, odwiedź https://www.sferis.pl/plyty-glowne-2894/gigabyte. Chłodzenie procesora – istotna kwestia Ważną kwestią, na którą warto zwrócić uwagę, jest również chłodzenie procesora. Spora część modeli jest sprzedawanych od razu z tego typu elementem, jednak nie jest to reguła. Propozycje bez chłodzenia producenta to najczęściej najwydajniejsze modele z danej generacji, w przypadku których większość osób i tak stawia na dedykowane rozwiązania. Odpowiednie chłodzenie pozwala zapewnić, że procesor będzie w stanie pracować na wysokich obrotach bez ryzyka awarii. Zdecydowanie nie zaleca się korzystania z CPU bez żadnego chłodzenia – w takiej sytuacji wystarczy kilka sekund, by jednostka obliczeniowa uległa nieodwracalnemu zniszczeniu. Kiedy warto zainwestować w wydajną kartę graficzną? Ten podzespół odpowiada za renderowanie grafiki, a dodatkowo może wspierać obliczenia głównej jednostki. Modele od najlepszych producentów można znaleźć między innymi na https://www.sferis.pl/karty-graficzne-2889/gigabyte. Wydajna karta graficzna to wymóg przede wszystkim dla graczy i osób wykonujących intensywne prace związane z renderowaniem obrazu. Jej wpływ na szybkość komputera zależy jednak od tego, w jaki sposób korzystamy ze sprzętu. Największe zmiany odczujemy właśnie w przypadku gier i programów do obsługi wideo. Jeżeli jednak komputer służy nam przede wszystkim do przeglądania internetu i innych, mniej wymagających zadań, możemy ograniczyć wydatki, stawiając na procesor wyposażony w zintegrowaną grafikę. Nośniki danych – rodzaj napędu ma spore znaczenie W tym przypadku rozróżniamy dwa główne typy nośników: •    HDD, czyli dysk twardy – jego działanie opiera się na magnesowaniu odpowiednich części ruchomych talerzy; •    SSD, czyli napęd półprzewodnikowy – wszystkie operacje są wykonywane czysto elektronicznie, z pomocą tranzystorów. Jak wygląda różnica pomiędzy nimi w codziennym zastosowaniu? Niemal wszystkie argumenty przemawiają za SSD. Przesył danych w najnowszych modelach sięga nawet kilku gigabajtów na sekundę, podczas gdy najwydajniejsze HDD osiągają zwykle maksymalnie 600 MB/s. To sprawia, że zarówno sam system, jak i wszelkie programy oraz aplikacje będą uruchamiać się i działać o wiele szybciej. Dodatkowo SSD pracuje znacznie ciszej, zachowując przy tym wyższą wydajność energetyczną. « powrót do artykułu
  2. Iskra Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj. Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku. Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.     Trudne początki Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona. Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych. Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia. W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a. « powrót do artykułu
  3. Międzynarodowa grupa naukowa, na której czele stali uczeni z Uniwersytetu Kalifornijskiego w Berkeley oraz US Institute for Molecular Manufacturing, twierdzi, że jeszcze w bieżącym wieku powstanie interfejs łączący ludzki mózg z chmurą komputerową. Ma się to stać możliwe dzięki szybkim postępom w nanotechnologii, nanomedycynie, sztucznej inteligencji i na polu obliczeniowym. Interfejs taki dawałby człowiekowi natychmiastowy dostęp zarówno do danych jak i zasobów obliczeniowych chmury. Artykuł opisujący taki interfejs opublikowano na łamach Frontiers in Neuroscience. Koncepcja interfejsu B/CI (Human Brain/Cloud Interface) została zaproponowana przez futurystę i wynalazcę Raya Kurzweila. Zasugerował on, że neuronowe nanoroboty mogą zostać wykorzystane do połączenia kory nowej mózgu człowieka z „syntetyczną korą nową” chmury obliczeniowej. To właśnie pomysły Kurzweila położyły podwaliny pod najnowszą pracę grupy naukowej, której głównym badaczem był Robert Freitas. Zaproponowane przez grupę nanoroboty zapewniałyby dostęp w czasie rzeczywistym, monitorowanie połączenia i kontrolę sygnałów przesyłanych pomiędzy chmurą a ludzkim mózgiem. Te urządzenia będą przemieszczały się w naczyniach krwionośnych, przekraczały barierę krew-mózg i precyzyjnie pozycjonowały się wśród, a nawet wewnątrz, komórek ludzkiego mózgu. Będą następnie bezprzewodowo przesyłały zakodowane informacje do superkomputerów w chmurze, wyjaśnia Freitas. Wedle jego koncepcji mielibyśmy do czynienia ze swoistym internetem myśli. Interfejs B/CI sterowany za pomocą neuronowych nanorobotów dałby człowiekowi natychmiastowy dostęp do całej ludzkiej wiedzy przechowywanej w chmurze, jednocześnie zwiększałoby możliwości uczenia się i inteligencję człowieka, mówi jeden z główny autorów, doktor Nunu Martins. B/CI pozwoliłby też na stworzenie w przyszłości jednego wielkiego „globalnego supermózgu” składającego się z mózgów wszystkich ludzi oraz sztucznej inteligencji. Eksperymentalny system BrainNet, chociaż nie jest jakość szczególnie skomplikowany, już został przetestowany pozwalając wymianę myśli za pomocą chmury. Wykorzystano w tym celu przezczaszkową rejestrację sygnałów elektrycznych nadawcy i przezczaszkową stymulację magnetyczną odbiorcy, co pozwoliło obu osobom na wspólną pracę, mówi Martins. Uważamy, że postęp neuronowej nanorobotyki pozwoli na stworzenie w przyszłości supermózgów, które będą mogły w czasie rzeczywistym korzystać z myśli i mocy obliczeniowej innych mózgów oraz maszyn. Taka wspólna świadomość może zrewolucjonizować demokrację, zwiększyć poziom empatii i połączyć różne pod względem kulturowym grupy w jedno prawdziwie globalne społeczeństwo, dodaje. Zdaniem naukowców, najpoważniejszym ograniczeniem rozwoju B/CI będzie zapewnienie odpowiednio szybkiego transferu danych do i z chmury obliczeniowej. To wyzwanie oznacza nie tylko konieczność znalezienia pasma dla globalnej transmisji, ale również rozwiązania problemu wymiany danych pomiędzy chmurą a neuronami za pomocą niewielkich urządzeń znajdujących się głęboko w mózgu, stwierdza Martins. Jednym z proponowanych rozwiązań jest zastosowanie nanocząstek magnetoelektrycznych. Te nanocząstki były już używane w organizmie myszy do połączenia zewnętrznego pola magnetycznego z polem elektrycznym neuronów, czyli do wykrywania i lokalnego wzmacniania sygnałów magnetycznych, co z kolei pozwoliło na zmianę aktywności elektrycznej neuronów. Mogą działać też odwrotnie, czyli wzmacniać sygnały elektryczne wytwarzane przez neurony i nanoroboty, co pozwoli na ich wykrycie poza czaszką. Największym wyzwaniem nowej technologii będzie bezpieczne umieszczenie w mózgu działających neutralnych dla organizmu nanocząstek i nanorobotów. « powrót do artykułu
  4. W mózgach dzieci, które dużo czasu spędzają przed ekranem telewizora, komputera czy smartfonu, zauważono „inne wzorce”, niż u dzieci oszczędniej korzystających z nowoczesnych technologii. Skany mózgów i zauważone różnice to pierwsze wyniki wielkiego wciąż trwającego studium, jakie kosztem 300 milionów dolarów prowadzi amerykański Narodowy Instytut Zdrowia. Doktor Gaya Dowling, która pracuje przy tym projekcie, ujawniła w telewizji, że u 9- i 10-letnich dzieci, które przed ekranem spędzają ponad 7 godzin dziennie, zauważono objawy przedwczesnego zmniejszenia grubości kory mózgowej. Nie wiemy, czy jest to spowodowane przez ekrany. Nie wiemy jeszcze, czy to negatywne zjawisko. Jedyne, co możemy obecnie powiedzieć, to to, że tak wygląda mózg dziecka spędzającego dużo czasu przed ekranem. I nie jest to jedyne zjawisko, jakie zauważyliśmy, mówi uczona. Badania wykazały też, że dzieci, które spędzają przed ekranem ponad 2 godziny na dobę uzyskują niższe wyniki w testach językowych i testach rozumowania. W ramach studium przeprowadzane są m.in. badania obrazowe mózgów 4500 dzieci. Jednym z ich celów jest stwierdzenie, czy wpatrywanie się w ekran uzależnia. Potrzeba będzie jednak wielu lat, zanim naukowcy będą mogli mówić o długoterminowych skutkach wykorzystywania komputerów, telewizorów i smartfonów. Głównym zmartwieniem wielu naukowców, w tym i moim, jest fakt, iż obecnie odbywa się wielki niekontrolowany eksperyment na całej generacji dzieci, stwierdził w tym samym programie Dimitri Christakis z Amerykańskiej Akademii Pediatrii, główny autor zaleceń dotyczących wykorzystywania ekranów przez dzieci. Oficjalnie wstępne wyniki badań zostaną opublikowane na początku przyszłego roku. Już teraz specjaliści zalecają, by dzieci młodsze niż 18 miesięcy nie miały żadnego kontaktu z ekranami. « powrót do artykułu
  5. Na University of Oxford powstaje oprogramowanie, które na podstawie wyglądu twarrzy ma rozpoznawać rzadkie choroby genetyczne. Choroby takie dotykają około 6% populacji, ale w większości przypadków pozostają nierozpoznane. Istnieją testy genetyczne pozwalające zdiagnozować częściej występujące schorzenia, takie jak np. zespół Downa. Jednak dla wielu chorób testy nie zostały opracowane, gdyż nie zidentyfikowano genów, które je powodują. W przypadku 30-40 procent osób cierpiących na schorzenia genetyczne pewne charakterystyczne cechy są widoczne na twarzach. I właśnie na tej podstawie lekarz może postawić diagnozę. Problem w tym, że niewielu medyków ma odpowiednie przygotowanie pozwalające na rozpoznanie chorób genetycznych na podstawie wyglądu twarzy. Z tego też powodu wiele osób nie ma przez całe lata postawionej prawidłowej diagnozy. Dlatego też Christoffer Nellaker i Andrew Zisserman z Oxfordu postanowili stworzyć oprogramowanie, które na podstawie zdjęcia będzie pomagało we wstępnej diagnostyce. Obaj naukowcy wykorzystali w swojej pracy 1363 publicznie dostępne zdjęcia osób cierpiących na osiem schorzeń genetycznych. Znalazły się wśród nich fotografie chorych na zespół Downa, zespół łamliwego chromosomu X czy progerię. Komputer uczył się identyfikować każdą z chorób na podstawie zestawu 36 cech twarzy, takich jak kształt oczu, ust, nosa czy brwi. „Automatycznie analizuje zdjęcie i skupia się na głównych cechach, z których tworzy opis twarzy podkreślając cechy odróżniające” - mówi Nellaker. Później opis taki jest przez komputer porównywany ze zdjęciami osób ze zdiagnozowanymi schorzeniami. Na tej podstawie maszyna wydaje swoją opinię i określa prawdopodobieństwo, z jaki dana osoba może cierpieć na któreś ze schorzeń. Skuteczność algorytmu zwiększa się wraz z wielkością bazy danych fotografii referencyjnych. W przypadku ośmiu schorzeń genetycznych, którymi obecnie się zajęto, baza danych dla każdej z nich wynosiła od 100 do 283 zdjęć osób ze zdiagnozowanymi chorobami. Testy wykazały, że maszyna rozpoznaje choroby z 93-procentową trafnością. Tak obiecujące wyniki skłoniły naukowców do rozszerzenia zestawu diagnozowanych chorób do 91. W bazie danych znajdują się obecnie 2754 zdjęcia osób, u których rozpoznano jedną z tych chorób. Na razie system nie podaje dokładnej diagnozy, jednak naukowcy szacują, że już w tej chwili ich algorytm potrafi właściwie rozpoznać chorobę z 30-krotnie większym prawdopodobieństwem niż przy losowym zgadywaniu. Na przykład na podstawie zdjęcia Abrahama Lincolna system uznał, że cierpiał on na zespół Marfana. Niektórzy historycy twierdzą, że prezydent rzeczywiście na to chorował. Zespół Marfana jest siódmą najczęściej występujących schorzeniem spośród 91, którymi zajmuje się algorytm. Nellaker przyznaje, że algorytm nie podaje 100-procentowo pewnych odpowiedzi, ale pozwala na znaczne zawężenie możliwości wyboru. Teoretycznie może być on używany do diagnozowania noworodków, jednak jego twórcy uważają, że będzie używany głównie do diagnozowania rodziców, którzy martwią się, iż mogliby swoim dzieciom przekazać jakieś schorzenia. Główną zaletą systemu będzie jego łatwa dostępność. Szczególnie przyda się on tam, gdzie testy genetyczne są niedostępne. Ma on też olbrzymią przewagę nad stworzonymi wcześniej systemami korzystającymi z obrazów 3D. Tworzenie takich obrazów jest trudne i kosztowne, a pacjent musi odwiedzić szpital, w którym obraz zostanie wykonany. System Nellakera i Zissermana potrzebuje jedynie cyfrowego zdjęcia twarzy. « powrót do artykułu
  6. Naukowcy z Uniwersytetu Kalifornijskiego w San Diego przygotowali raport o konsumpcji informacji przez Amerykanów w 2008 roku [PDF]. Wynika z niego, że mieszkańcy USA w ciągu 12 miesięcy "użyli" 3,6 zettabajtów (1021, bilion gigabajtów) informacji i niemal 11 biliardów wyrazów. Oznacza to, że przeciętny mieszkaniec tego kraju "konsumował" każdego dnia 34 gigabajty informacji i 100.500 wyrazów. Dane takie uzyskano na podstawie analizy ponad 20 źrodeł informacji. Od książek i gazet po przenośne gry komputerowe, radio satelitarne i internetowy przekaz wideo. W badaniach nie uwzględniono informacji "konsumowanej" w czasie pracy. Uczeni zdefiniowali "informację" jako przepływ danych docierających do ludzi i policzyli bajty, słowa oraz czas spędzany na konsumpcji. Najbardziej rozpowszechnionym sposobem korzystania z informacji jest przekaz obrazkowy. Około 2 zettabajtów pozyskano z gier wideo, a 1,3 ZiB z telewizji. Widać tutaj wyraźny wzrost w porównaniu z poprzednimi badaniami z roku 2000 i 2003. Uczeni zauważają, że liczba godzin spędzanych na konsumpcji informacji rośnie w latach 1980-2008 w tempie 2,8% rocznie. Przed 28 laty przeciętny Amerykanin "konsumował" informacje średnio przez 7,4 godziny na dobę. Obecnie jest to 11,8 godziny. Wśród źródeł informacji nadal dominuje radio i telewizja. Naukowcy wyliczyli, że 60% czasu konsumpcji jest związane właśnie z tymi mediami. Amerykanie spędzają przy źródłach nie związanych z komputerem ponad 75% czasu związanego z konsumpcją informacji. Jednocześnie jednak widać, że komputery zmieniają sposób przyswajania informacji. Przed ich pojawieniem się jedynym interaktywnym źródłem informacji był telefon. Dzięki komputerom 33% słów i ponad 50% bitów jest odbieranych w sposób interaktywny. Komputery przyczyniły się też do zwiększenia, zagrożonego przez telewizję, czytelnictwa, gdyż słowo pisane jest głównym sposobem komunikacji z maszyną. « powrót do artykułu
×
×
  • Dodaj nową pozycję...