Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' komputer'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 5 results

  1. Dobór odpowiednich podzespołów w komputerze ma ogromny wpływ na płynność rozgrywki czy wydajność wykonywanej pracy. Warto dowiedzieć się, które komponenty mają największe znaczenie pod tym względem. Procesor – serce komputera CPU, czyli właśnie procesor, to miejsce, w którym nieustannie przeprowadzane są obliczenia odpowiedzialne za pracę całego systemu. Przez centralną jednostkę obliczeniową przechodzą wszystkie polecenia do wykonania przez komputer. Szybkość tego podzespołu określa się na podstawie taktowania zegara, czyli liczby cykli otwierania i zamykania tranzystorów na sekundę. Wartość ta w nowych układach jest naprawdę wysoka – 1 GHz oznacza miliard cykli na sekundę, a taktowanie najnowszych procesorów może nawet przekraczać 5 GHz. Dodatkowo parametr ten jest zazwyczaj podawany w odniesieniu do jednego rdzenia, podczas gdy najpopularniejsze modele korzystają z 4, 6 lub 8 rdzeni. Liczba cykli bezpośrednio wyznacza liczbę operacji, które może wykonać CPU – wyższe taktowanie przekłada się zatem na szybsze działanie aplikacji, gier i każdego innego procesu. Wymiana procesora może dodatkowo pociągnąć za sobą konieczność zastosowania innej płyty głównej. Powodem jest obecność różnych gniazd do obsługi procesora. Intel i AMD korzystają z nieco odmiennych formatów. Co więcej, poszczególne generacje CPU zwykle wprowadzają drobne zmiany w tej kwestii. Choć płyta główna sama w sobie ma niewielki wpływ na szybkość komputera, jej konfiguracja wpływa na dobór innych komponentów, takich jak właśnie procesor czy RAM. Aby znaleźć najlepszą płytę główną dla siebie, odwiedź https://www.sferis.pl/plyty-glowne-2894/gigabyte. Chłodzenie procesora – istotna kwestia Ważną kwestią, na którą warto zwrócić uwagę, jest również chłodzenie procesora. Spora część modeli jest sprzedawanych od razu z tego typu elementem, jednak nie jest to reguła. Propozycje bez chłodzenia producenta to najczęściej najwydajniejsze modele z danej generacji, w przypadku których większość osób i tak stawia na dedykowane rozwiązania. Odpowiednie chłodzenie pozwala zapewnić, że procesor będzie w stanie pracować na wysokich obrotach bez ryzyka awarii. Zdecydowanie nie zaleca się korzystania z CPU bez żadnego chłodzenia – w takiej sytuacji wystarczy kilka sekund, by jednostka obliczeniowa uległa nieodwracalnemu zniszczeniu. Kiedy warto zainwestować w wydajną kartę graficzną? Ten podzespół odpowiada za renderowanie grafiki, a dodatkowo może wspierać obliczenia głównej jednostki. Modele od najlepszych producentów można znaleźć między innymi na https://www.sferis.pl/karty-graficzne-2889/gigabyte. Wydajna karta graficzna to wymóg przede wszystkim dla graczy i osób wykonujących intensywne prace związane z renderowaniem obrazu. Jej wpływ na szybkość komputera zależy jednak od tego, w jaki sposób korzystamy ze sprzętu. Największe zmiany odczujemy właśnie w przypadku gier i programów do obsługi wideo. Jeżeli jednak komputer służy nam przede wszystkim do przeglądania internetu i innych, mniej wymagających zadań, możemy ograniczyć wydatki, stawiając na procesor wyposażony w zintegrowaną grafikę. Nośniki danych – rodzaj napędu ma spore znaczenie W tym przypadku rozróżniamy dwa główne typy nośników: •    HDD, czyli dysk twardy – jego działanie opiera się na magnesowaniu odpowiednich części ruchomych talerzy; •    SSD, czyli napęd półprzewodnikowy – wszystkie operacje są wykonywane czysto elektronicznie, z pomocą tranzystorów. Jak wygląda różnica pomiędzy nimi w codziennym zastosowaniu? Niemal wszystkie argumenty przemawiają za SSD. Przesył danych w najnowszych modelach sięga nawet kilku gigabajtów na sekundę, podczas gdy najwydajniejsze HDD osiągają zwykle maksymalnie 600 MB/s. To sprawia, że zarówno sam system, jak i wszelkie programy oraz aplikacje będą uruchamiać się i działać o wiele szybciej. Dodatkowo SSD pracuje znacznie ciszej, zachowując przy tym wyższą wydajność energetyczną. « powrót do artykułu
  2. Iskra Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj. Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku. Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.     Trudne początki Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona. Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych. Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia. W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a. « powrót do artykułu
  3. Międzynarodowa grupa naukowa, na której czele stali uczeni z Uniwersytetu Kalifornijskiego w Berkeley oraz US Institute for Molecular Manufacturing, twierdzi, że jeszcze w bieżącym wieku powstanie interfejs łączący ludzki mózg z chmurą komputerową. Ma się to stać możliwe dzięki szybkim postępom w nanotechnologii, nanomedycynie, sztucznej inteligencji i na polu obliczeniowym. Interfejs taki dawałby człowiekowi natychmiastowy dostęp zarówno do danych jak i zasobów obliczeniowych chmury. Artykuł opisujący taki interfejs opublikowano na łamach Frontiers in Neuroscience. Koncepcja interfejsu B/CI (Human Brain/Cloud Interface) została zaproponowana przez futurystę i wynalazcę Raya Kurzweila. Zasugerował on, że neuronowe nanoroboty mogą zostać wykorzystane do połączenia kory nowej mózgu człowieka z „syntetyczną korą nową” chmury obliczeniowej. To właśnie pomysły Kurzweila położyły podwaliny pod najnowszą pracę grupy naukowej, której głównym badaczem był Robert Freitas. Zaproponowane przez grupę nanoroboty zapewniałyby dostęp w czasie rzeczywistym, monitorowanie połączenia i kontrolę sygnałów przesyłanych pomiędzy chmurą a ludzkim mózgiem. Te urządzenia będą przemieszczały się w naczyniach krwionośnych, przekraczały barierę krew-mózg i precyzyjnie pozycjonowały się wśród, a nawet wewnątrz, komórek ludzkiego mózgu. Będą następnie bezprzewodowo przesyłały zakodowane informacje do superkomputerów w chmurze, wyjaśnia Freitas. Wedle jego koncepcji mielibyśmy do czynienia ze swoistym internetem myśli. Interfejs B/CI sterowany za pomocą neuronowych nanorobotów dałby człowiekowi natychmiastowy dostęp do całej ludzkiej wiedzy przechowywanej w chmurze, jednocześnie zwiększałoby możliwości uczenia się i inteligencję człowieka, mówi jeden z główny autorów, doktor Nunu Martins. B/CI pozwoliłby też na stworzenie w przyszłości jednego wielkiego „globalnego supermózgu” składającego się z mózgów wszystkich ludzi oraz sztucznej inteligencji. Eksperymentalny system BrainNet, chociaż nie jest jakość szczególnie skomplikowany, już został przetestowany pozwalając wymianę myśli za pomocą chmury. Wykorzystano w tym celu przezczaszkową rejestrację sygnałów elektrycznych nadawcy i przezczaszkową stymulację magnetyczną odbiorcy, co pozwoliło obu osobom na wspólną pracę, mówi Martins. Uważamy, że postęp neuronowej nanorobotyki pozwoli na stworzenie w przyszłości supermózgów, które będą mogły w czasie rzeczywistym korzystać z myśli i mocy obliczeniowej innych mózgów oraz maszyn. Taka wspólna świadomość może zrewolucjonizować demokrację, zwiększyć poziom empatii i połączyć różne pod względem kulturowym grupy w jedno prawdziwie globalne społeczeństwo, dodaje. Zdaniem naukowców, najpoważniejszym ograniczeniem rozwoju B/CI będzie zapewnienie odpowiednio szybkiego transferu danych do i z chmury obliczeniowej. To wyzwanie oznacza nie tylko konieczność znalezienia pasma dla globalnej transmisji, ale również rozwiązania problemu wymiany danych pomiędzy chmurą a neuronami za pomocą niewielkich urządzeń znajdujących się głęboko w mózgu, stwierdza Martins. Jednym z proponowanych rozwiązań jest zastosowanie nanocząstek magnetoelektrycznych. Te nanocząstki były już używane w organizmie myszy do połączenia zewnętrznego pola magnetycznego z polem elektrycznym neuronów, czyli do wykrywania i lokalnego wzmacniania sygnałów magnetycznych, co z kolei pozwoliło na zmianę aktywności elektrycznej neuronów. Mogą działać też odwrotnie, czyli wzmacniać sygnały elektryczne wytwarzane przez neurony i nanoroboty, co pozwoli na ich wykrycie poza czaszką. Największym wyzwaniem nowej technologii będzie bezpieczne umieszczenie w mózgu działających neutralnych dla organizmu nanocząstek i nanorobotów. « powrót do artykułu
  4. W mózgach dzieci, które dużo czasu spędzają przed ekranem telewizora, komputera czy smartfonu, zauważono „inne wzorce”, niż u dzieci oszczędniej korzystających z nowoczesnych technologii. Skany mózgów i zauważone różnice to pierwsze wyniki wielkiego wciąż trwającego studium, jakie kosztem 300 milionów dolarów prowadzi amerykański Narodowy Instytut Zdrowia. Doktor Gaya Dowling, która pracuje przy tym projekcie, ujawniła w telewizji, że u 9- i 10-letnich dzieci, które przed ekranem spędzają ponad 7 godzin dziennie, zauważono objawy przedwczesnego zmniejszenia grubości kory mózgowej. Nie wiemy, czy jest to spowodowane przez ekrany. Nie wiemy jeszcze, czy to negatywne zjawisko. Jedyne, co możemy obecnie powiedzieć, to to, że tak wygląda mózg dziecka spędzającego dużo czasu przed ekranem. I nie jest to jedyne zjawisko, jakie zauważyliśmy, mówi uczona. Badania wykazały też, że dzieci, które spędzają przed ekranem ponad 2 godziny na dobę uzyskują niższe wyniki w testach językowych i testach rozumowania. W ramach studium przeprowadzane są m.in. badania obrazowe mózgów 4500 dzieci. Jednym z ich celów jest stwierdzenie, czy wpatrywanie się w ekran uzależnia. Potrzeba będzie jednak wielu lat, zanim naukowcy będą mogli mówić o długoterminowych skutkach wykorzystywania komputerów, telewizorów i smartfonów. Głównym zmartwieniem wielu naukowców, w tym i moim, jest fakt, iż obecnie odbywa się wielki niekontrolowany eksperyment na całej generacji dzieci, stwierdził w tym samym programie Dimitri Christakis z Amerykańskiej Akademii Pediatrii, główny autor zaleceń dotyczących wykorzystywania ekranów przez dzieci. Oficjalnie wstępne wyniki badań zostaną opublikowane na początku przyszłego roku. Już teraz specjaliści zalecają, by dzieci młodsze niż 18 miesięcy nie miały żadnego kontaktu z ekranami. « powrót do artykułu
  5. Naukowcy z Uniwersytetu Kalifornijskiego w San Diego przygotowali raport o konsumpcji informacji przez Amerykanów w 2008 roku [PDF]. Wynika z niego, że mieszkańcy USA w ciągu 12 miesięcy "użyli" 3,6 zettabajtów (1021, bilion gigabajtów) informacji i niemal 11 biliardów wyrazów. Oznacza to, że przeciętny mieszkaniec tego kraju "konsumował" każdego dnia 34 gigabajty informacji i 100.500 wyrazów. Dane takie uzyskano na podstawie analizy ponad 20 źrodeł informacji. Od książek i gazet po przenośne gry komputerowe, radio satelitarne i internetowy przekaz wideo. W badaniach nie uwzględniono informacji "konsumowanej" w czasie pracy. Uczeni zdefiniowali "informację" jako przepływ danych docierających do ludzi i policzyli bajty, słowa oraz czas spędzany na konsumpcji. Najbardziej rozpowszechnionym sposobem korzystania z informacji jest przekaz obrazkowy. Około 2 zettabajtów pozyskano z gier wideo, a 1,3 ZiB z telewizji. Widać tutaj wyraźny wzrost w porównaniu z poprzednimi badaniami z roku 2000 i 2003. Uczeni zauważają, że liczba godzin spędzanych na konsumpcji informacji rośnie w latach 1980-2008 w tempie 2,8% rocznie. Przed 28 laty przeciętny Amerykanin "konsumował" informacje średnio przez 7,4 godziny na dobę. Obecnie jest to 11,8 godziny. Wśród źródeł informacji nadal dominuje radio i telewizja. Naukowcy wyliczyli, że 60% czasu konsumpcji jest związane właśnie z tymi mediami. Amerykanie spędzają przy źródłach nie związanych z komputerem ponad 75% czasu związanego z konsumpcją informacji. Jednocześnie jednak widać, że komputery zmieniają sposób przyswajania informacji. Przed ich pojawieniem się jedynym interaktywnym źródłem informacji był telefon. Dzięki komputerom 33% słów i ponad 50% bitów jest odbieranych w sposób interaktywny. Komputery przyczyniły się też do zwiększenia, zagrożonego przez telewizję, czytelnictwa, gdyż słowo pisane jest głównym sposobem komunikacji z maszyną. « powrót do artykułu
×
×
  • Create New...