Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Szybkość komputera – jakie podzespoły mają znaczenie?
dodany przez
KopalniaWiedzy.pl, w Artykuły
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Na University of Oxford powstaje oprogramowanie, które na podstawie wyglądu twarrzy ma rozpoznawać rzadkie choroby genetyczne. Choroby takie dotykają około 6% populacji, ale w większości przypadków pozostają nierozpoznane. Istnieją testy genetyczne pozwalające zdiagnozować częściej występujące schorzenia, takie jak np. zespół Downa. Jednak dla wielu chorób testy nie zostały opracowane, gdyż nie zidentyfikowano genów, które je powodują.
W przypadku 30-40 procent osób cierpiących na schorzenia genetyczne pewne charakterystyczne cechy są widoczne na twarzach. I właśnie na tej podstawie lekarz może postawić diagnozę. Problem w tym, że niewielu medyków ma odpowiednie przygotowanie pozwalające na rozpoznanie chorób genetycznych na podstawie wyglądu twarzy. Z tego też powodu wiele osób nie ma przez całe lata postawionej prawidłowej diagnozy.
Dlatego też Christoffer Nellaker i Andrew Zisserman z Oxfordu postanowili stworzyć oprogramowanie, które na podstawie zdjęcia będzie pomagało we wstępnej diagnostyce.
Obaj naukowcy wykorzystali w swojej pracy 1363 publicznie dostępne zdjęcia osób cierpiących na osiem schorzeń genetycznych. Znalazły się wśród nich fotografie chorych na zespół Downa, zespół łamliwego chromosomu X czy progerię. Komputer uczył się identyfikować każdą z chorób na podstawie zestawu 36 cech twarzy, takich jak kształt oczu, ust, nosa czy brwi. „Automatycznie analizuje zdjęcie i skupia się na głównych cechach, z których tworzy opis twarzy podkreślając cechy odróżniające” - mówi Nellaker. Później opis taki jest przez komputer porównywany ze zdjęciami osób ze zdiagnozowanymi schorzeniami. Na tej podstawie maszyna wydaje swoją opinię i określa prawdopodobieństwo, z jaki dana osoba może cierpieć na któreś ze schorzeń.
Skuteczność algorytmu zwiększa się wraz z wielkością bazy danych fotografii referencyjnych. W przypadku ośmiu schorzeń genetycznych, którymi obecnie się zajęto, baza danych dla każdej z nich wynosiła od 100 do 283 zdjęć osób ze zdiagnozowanymi chorobami. Testy wykazały, że maszyna rozpoznaje choroby z 93-procentową trafnością.
Tak obiecujące wyniki skłoniły naukowców do rozszerzenia zestawu diagnozowanych chorób do 91. W bazie danych znajdują się obecnie 2754 zdjęcia osób, u których rozpoznano jedną z tych chorób. Na razie system nie podaje dokładnej diagnozy, jednak naukowcy szacują, że już w tej chwili ich algorytm potrafi właściwie rozpoznać chorobę z 30-krotnie większym prawdopodobieństwem niż przy losowym zgadywaniu. Na przykład na podstawie zdjęcia Abrahama Lincolna system uznał, że cierpiał on na zespół Marfana. Niektórzy historycy twierdzą, że prezydent rzeczywiście na to chorował. Zespół Marfana jest siódmą najczęściej występujących schorzeniem spośród 91, którymi zajmuje się algorytm.
Nellaker przyznaje, że algorytm nie podaje 100-procentowo pewnych odpowiedzi, ale pozwala na znaczne zawężenie możliwości wyboru. Teoretycznie może być on używany do diagnozowania noworodków, jednak jego twórcy uważają, że będzie używany głównie do diagnozowania rodziców, którzy martwią się, iż mogliby swoim dzieciom przekazać jakieś schorzenia. Główną zaletą systemu będzie jego łatwa dostępność. Szczególnie przyda się on tam, gdzie testy genetyczne są niedostępne.
Ma on też olbrzymią przewagę nad stworzonymi wcześniej systemami korzystającymi z obrazów 3D. Tworzenie takich obrazów jest trudne i kosztowne, a pacjent musi odwiedzić szpital, w którym obraz zostanie wykonany. System Nellakera i Zissermana potrzebuje jedynie cyfrowego zdjęcia twarzy.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy z Uniwersytetu Kalifornijskiego w San Diego przygotowali raport o konsumpcji informacji przez Amerykanów w 2008 roku [PDF]. Wynika z niego, że mieszkańcy USA w ciągu 12 miesięcy "użyli" 3,6 zettabajtów (1021, bilion gigabajtów) informacji i niemal 11 biliardów wyrazów. Oznacza to, że przeciętny mieszkaniec tego kraju "konsumował" każdego dnia 34 gigabajty informacji i 100.500 wyrazów. Dane takie uzyskano na podstawie analizy ponad 20 źrodeł informacji. Od książek i gazet po przenośne gry komputerowe, radio satelitarne i internetowy przekaz wideo. W badaniach nie uwzględniono informacji "konsumowanej" w czasie pracy.
Uczeni zdefiniowali "informację" jako przepływ danych docierających do ludzi i policzyli bajty, słowa oraz czas spędzany na konsumpcji.
Najbardziej rozpowszechnionym sposobem korzystania z informacji jest przekaz obrazkowy. Około 2 zettabajtów pozyskano z gier wideo, a 1,3 ZiB z telewizji. Widać tutaj wyraźny wzrost w porównaniu z poprzednimi badaniami z roku 2000 i 2003.
Uczeni zauważają, że liczba godzin spędzanych na konsumpcji informacji rośnie w latach 1980-2008 w tempie 2,8% rocznie. Przed 28 laty przeciętny Amerykanin "konsumował" informacje średnio przez 7,4 godziny na dobę. Obecnie jest to 11,8 godziny.
Wśród źródeł informacji nadal dominuje radio i telewizja. Naukowcy wyliczyli, że 60% czasu konsumpcji jest związane właśnie z tymi mediami. Amerykanie spędzają przy źródłach nie związanych z komputerem ponad 75% czasu związanego z konsumpcją informacji.
Jednocześnie jednak widać, że komputery zmieniają sposób przyswajania informacji. Przed ich pojawieniem się jedynym interaktywnym źródłem informacji był telefon. Dzięki komputerom 33% słów i ponad 50% bitów jest odbieranych w sposób interaktywny. Komputery przyczyniły się też do zwiększenia, zagrożonego przez telewizję, czytelnictwa, gdyż słowo pisane jest głównym sposobem komunikacji z maszyną.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Iskra
Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
Trudne początki
Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Międzynarodowa grupa naukowa, na której czele stali uczeni z Uniwersytetu Kalifornijskiego w Berkeley oraz US Institute for Molecular Manufacturing, twierdzi, że jeszcze w bieżącym wieku powstanie interfejs łączący ludzki mózg z chmurą komputerową.
Ma się to stać możliwe dzięki szybkim postępom w nanotechnologii, nanomedycynie, sztucznej inteligencji i na polu obliczeniowym. Interfejs taki dawałby człowiekowi natychmiastowy dostęp zarówno do danych jak i zasobów obliczeniowych chmury. Artykuł opisujący taki interfejs opublikowano na łamach Frontiers in Neuroscience.
Koncepcja interfejsu B/CI (Human Brain/Cloud Interface) została zaproponowana przez futurystę i wynalazcę Raya Kurzweila. Zasugerował on, że neuronowe nanoroboty mogą zostać wykorzystane do połączenia kory nowej mózgu człowieka z „syntetyczną korą nową” chmury obliczeniowej. To właśnie pomysły Kurzweila położyły podwaliny pod najnowszą pracę grupy naukowej, której głównym badaczem był Robert Freitas.
Zaproponowane przez grupę nanoroboty zapewniałyby dostęp w czasie rzeczywistym, monitorowanie połączenia i kontrolę sygnałów przesyłanych pomiędzy chmurą a ludzkim mózgiem. Te urządzenia będą przemieszczały się w naczyniach krwionośnych, przekraczały barierę krew-mózg i precyzyjnie pozycjonowały się wśród, a nawet wewnątrz, komórek ludzkiego mózgu. Będą następnie bezprzewodowo przesyłały zakodowane informacje do superkomputerów w chmurze, wyjaśnia Freitas. Wedle jego koncepcji mielibyśmy do czynienia ze swoistym internetem myśli.
Interfejs B/CI sterowany za pomocą neuronowych nanorobotów dałby człowiekowi natychmiastowy dostęp do całej ludzkiej wiedzy przechowywanej w chmurze, jednocześnie zwiększałoby możliwości uczenia się i inteligencję człowieka, mówi jeden z główny autorów, doktor Nunu Martins. B/CI pozwoliłby też na stworzenie w przyszłości jednego wielkiego „globalnego supermózgu” składającego się z mózgów wszystkich ludzi oraz sztucznej inteligencji.
Eksperymentalny system BrainNet, chociaż nie jest jakość szczególnie skomplikowany, już został przetestowany pozwalając wymianę myśli za pomocą chmury. Wykorzystano w tym celu przezczaszkową rejestrację sygnałów elektrycznych nadawcy i przezczaszkową stymulację magnetyczną odbiorcy, co pozwoliło obu osobom na wspólną pracę, mówi Martins. Uważamy, że postęp neuronowej nanorobotyki pozwoli na stworzenie w przyszłości supermózgów, które będą mogły w czasie rzeczywistym korzystać z myśli i mocy obliczeniowej innych mózgów oraz maszyn. Taka wspólna świadomość może zrewolucjonizować demokrację, zwiększyć poziom empatii i połączyć różne pod względem kulturowym grupy w jedno prawdziwie globalne społeczeństwo, dodaje.
Zdaniem naukowców, najpoważniejszym ograniczeniem rozwoju B/CI będzie zapewnienie odpowiednio szybkiego transferu danych do i z chmury obliczeniowej. To wyzwanie oznacza nie tylko konieczność znalezienia pasma dla globalnej transmisji, ale również rozwiązania problemu wymiany danych pomiędzy chmurą a neuronami za pomocą niewielkich urządzeń znajdujących się głęboko w mózgu, stwierdza Martins.
Jednym z proponowanych rozwiązań jest zastosowanie nanocząstek magnetoelektrycznych. Te nanocząstki były już używane w organizmie myszy do połączenia zewnętrznego pola magnetycznego z polem elektrycznym neuronów, czyli do wykrywania i lokalnego wzmacniania sygnałów magnetycznych, co z kolei pozwoliło na zmianę aktywności elektrycznej neuronów. Mogą działać też odwrotnie, czyli wzmacniać sygnały elektryczne wytwarzane przez neurony i nanoroboty, co pozwoli na ich wykrycie poza czaszką.
Największym wyzwaniem nowej technologii będzie bezpieczne umieszczenie w mózgu działających neutralnych dla organizmu nanocząstek i nanorobotów.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.