Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'symulacja'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 8 results

  1. University of Manchester i ARM chcą połączyć milion procesorów ARM, by symulować działanie ludzkiego mózgu. Specjaliści mówią, że uda się w ten sposób przeprowadzić symulację 1% mózgu. Pracami nad komputerem SpiNNaker kieruje Steve Furber, znany projektant procesorów ARM i pracownik naukowy University of Manchester. Do budowy maszyny zostaną wykorzystane procesory, które będą w liczbie 18 zamykane w pojedynczej obudowie. „Taka paczka zapewnia mocy peceta w małej przestrzeni i przy wykorzystaniu jednego wata" - oświadczył uniwersytet. Maszyna będzie symulowała pracę mózgu przesyłając niewielkie ilości danych. Naukowcy chcą dzięki niej lepiej zrozumieć, jak działa mózg. Psycholodzy już stworzyli sieci neuronowe, które symulują stany patologiczne. Używają ich do testowania różnych terapii, sprawdzania, która jest najbardziej efektywna - mówi Furber. Obecnie wiarygodność takich sieci jest ograniczona ich mocą obliczeniową, mamy jednak nadzieję, że SpiNNaker znacząco ją zwiększy. Nie wiemy, jak działa mózg jako system przetwarzający informacje i musimy się tego dowiedzieć. Mamy nadzieję, że nasza maszyna przyczyni się do poszerzenia wiedzy - dodaje.
  2. Międzynarodowa grupa naukowców chce zrealizować prawdopodobnie najbardziej ambitny projekt obliczeniowy w historii ludzkości. W ramach Living Earth Simulator (LES) ma powstać symulacja wszystkiego, co dzieje się na Ziemi - od globalnych zmian pogodowych, poprzez rozprzestrzenianie się chorób czy transakcje finansowe po sytuację na drogach lokalnych. LES ma pozwolić naukowcom zrozumieć to, co dzieje się na naszej planecie, zbadać wpływ ludzi na zmiany w społeczeństwie czy działanie sił przyrody na naszą rzeczywistość. Doktor Dirk Helbing ze Szwajcarskiego Instytutu Technologicznego, przewodniczący projektu FuturICT w ramach którego ma powstać LES, zauważa, że wiele zmian i problemów na Ziemi jest związanych z ludzką aktywnością, ale wciąż w pełni nie rozumiemy tego, w jaki sposób działa społeczeństwo czy gospodarka. Dodaje, że dzięki takim narzędziom jak Wielki Zderzacz Hadronów wiemy więcej o wszechświecie niż o własnej planecie. Zgodnie z wizją Helbinga, LES najpierw musiałby zostać wyposażony w gigantyczną bazę danych dotyczących Ziemi i ludzkości. Symulator nie działałby na pojedynczym komputerze, ale w sieci potężnych superkomputerów, które jeszcze nie istnieją. Uczony dodaje, że o ile odpowiedni sprzęt jeszcze nie istnieje, to dysponujemy już danymi potrzebnymi do działania LES. Helbing planuje włączyć do LES wiele źródeł informacji, takich jak np. Planetary Skin. To rozwijany przez NASA projekt, w ramach którego ma powstać sieć czujników zbierających dane z ziemi, wody, powietrza i przestrzeni kosmicznej. Z LES mogłyby zostać zintegrowane też Wikipedia, Google Maps czy rządowa brytyjska baza data.gov.uk. Po zintegrowaniu dziesiątków takich źródeł danych musiałby framework (szkielet) do zbudowania modeli obliczeniowych, symulujących to, co dzieje się na planecie. Technologia konieczna do skonstruowania LES może pojawić się już w nadchodzącej dekadzie. Symulatorowi potrzebne będą np. dobrze rozwinięte sieci semantyczne, które nie tylko będą w stanie przetworzyć dane, ale również je zrozumieć. Dla obecnych systemów komputerowych informacje dotyczące np. zanieczyszczenia powietrza wyglądają tak samo jak dane dotyczące migracji ludności. Jednak jeśli chcemy stworzyć prawdziwą symulację procesów na Ziemi musimy dysponować komputerami, które potrafią odróżnić od siebie i zrozumieć takie dane w odpowiednim kontekście. Jednocześnie LES musi być w stanie zrozumieć, wyodrębnić i usunąć informacje dotyczące konkretnych osób. Tylko wówczas bowiem uda się osiągnąć pożądany efekt - symulować niemal wszystko, bez jednoczesnych obaw o zachowanie prywatności. Oczywiście taka symulacja będzie wymagała olbrzymiej mocy obliczeniowej, ale jej uzyskanie nie powinno stanowić większego problemu. Specjaliści szacują bowiem, że już obecnie Google dysponuje 39 000 serwerów, które miesięcznie przetwarzają eksabajt danych. Jeśli prace nad LES rzeczywiście rozpoczną się w nadchodzącej dekadzie, to uzyskanie znacznie większej mocy obliczeniowej będzie stosunkowo łatwe. Pete Warden, twórca projektu OpenHeatMap i specjalista ds. przetwarzania danych zauważa, że dla LES będzie przydatna jedynie niewielka część z kilkuset eksabajtów danych, jakie są corocznie wytwarzane przez ludzkość. A skoro tak, to moc obliczeniowa nie będzie wąskim gardłem systemu. Jego zdaniem znacznie trudniejsze będzie uzyskanie dostępu do danych oraz wstępna eliminacja nieprzydatnych informacji. W ciągu ostatnich lat stało się np. jasne, że potrzebujemy lepszych wskaźników niż PKB do oceny rozwoju społeczeństwa i jego dobrobytu - mówi Helbing. LES ma właśnie pokazać stan społeczeństwa, rozwoju opieki zdrowotnej, edukacji czy ochrony środowiska. Zdaniem Helbinga, dzięki takiemu projektowi ludzkość będzie mogła stać się szczęśliwsza.
  3. Profesor Bruce Lee i jego zespół z University of Pittsburgh twierdzą, że gdy wzrasta liczba zachorowań na okresowe choroby zakaźne, zamykanie szkół na kilkanaście dni może tylko pogorszyć sytuację. W czasie wzrostu zakażeń A/H1N1 wiele szkół w USA zostało czasowo zamkniętych. Lee, profesor medycyny, epidemiologii i informatyki biomedycznej, przeprowadził serię symulacji komputerowych, w których wykorzystał dane ze spisu ludności i na ich podstawie stworzył reprezentatywną symulację dla hrabstwa Allegheny, biorąc pod uwagę jego populację, system szkolnictwa, zatrudnienia, więzi społeczne, miejsce zamieszkania. Symulował w ten sposób rozprzestrzenianie się epidemii wśród 1 200 000 osób, w tym 200 000 dzieci w wieku szkolnym, które uczęszczały do niemal 300 szkół. Seria symulacji wykazała, że zamykanie szkół znacząco obniża rozprzestrzenianie się epidemii tylko wówczas, gdy przerwa trwa co najmniej 8 tygodni. Zamykanie szkół natychmiast po wybuchu epidemii ma mniejsze znaczenie, niż to, by pozostały zamknięte później. Co więcej, zamknięcie ich na krótki czas może tylko pogorszyć sytuację, gdyż młodzież wróci do szkół gdy epidemia obejmuje więcej osób, niż w czasie, gdy szkoły zamknięto, a więc istnieje znacznie większe ryzyko, iż wśród powracających znajdzie się sporo nosicieli. Ponadto symulacje wykazały, że identyfikowanie chorych uczniów i odsyłanie ich do domów ma minimalny wpływ na rozprzestrzenianie się choroby. Nie było też znaczących różnic pomiędzy zamykaniem pojedynczych szkół, a zamknięciem wszystkich placówek na danym terenie. Wyniki badań zostały opublikowane w Journal of Public Health Management and Practice.
  4. Zdaniem specjalistów z IBM-a, w ciągu najbliższych 10 lat powstaną komputery, których możliwości obliczeniowe dorównają ludzkiemu mózgowi. Już w tej chwili naukowcy potrafią dokładnie symulować na komputerze mózg kota. O odtworzeniu wirtualnego mózgu zwierzęcia poinformował Dharmendra Modha, który w IBM-ie jest odpowiedzialny za badania nad inteligentnym przetwarzaniem. Podobnymi osiągnięciami mogą pochwalić się naukowcy z czołowych uniwersytetów świata. Zaledwie przed rokiem DARPA przyznała Błękitnemu Gigantowi i pięciu uniwersytetom grant na stworzenie wirtualnego mózgu i symulowanie jego możliwości obliczeniowych, a już obecnie dokonano dwóch bardzo ważnych kroków. Pierwszy to przeprowadzenie w czasie rzeczywistym symulacji pracy ponad miliarda neuronów i 10 bilionów synaps. To więcej niż ma do dyspozycji mózg kota. Drugi z ważnych kroków to stworzenie algorytmu o nazwie BlueMatter, który szczegółowo opisuje wszystkie połączenia w obszarach korowych i podkorowych ludzkiego mózgu. Jego dokładne mapowanie pozwoli nam zrozumieć, w jaki sposób mózg przetwarza informacje. Podczas swoich badań naukowcy wykorzystują najnowsze osiągnięcia neurologii, nanotechnologii oraz doświadczenia z budowy superkomputerów. Nie wiadomo, czy rzeczywiście w ciągu najbliższych 10 lat uda się komputerowo odtworzyć zdolności ludzkiego mózgu. Jednak tempo prac napawa optymizmem i niewykluczone, że około roku 2020 maszyny będą miały zdolności obliczeniowe podobne do naszych mózgów.
  5. Choć wydawałoby się, że nawilżanie łzami powierzchni oka nie jest zbyt skomplikowane, to nieprawda. Naukowcy z Uniwersytetu w Delaware opracowali model matematyczny, który pozwala szczegółowo opisać ten wyspecjalizowany system. Co więcej, wykazali, że niemożliwe jest jednak możliwe... Jeśli zrozumiemy dynamikę filmu łzowego, będziemy w stanie wynaleźć lepsze metody leczenia zespołu suchego oka – wyjaśnia Kara Maki. Dzięki symulacjom komputerowym Maki i Richard Braun odkryli, że łzy mogą spływać pośrodku gałki ocznej, a nie wyłącznie w pobliżu kącików. Każde mrugnięcie przypomina pociągnięcie pędzla. Na powierzchni oka rozprowadzana jest nowa warstwa łez, która przypomina pokrycie ściany farbą. Jeśli jednak jesteśmy smutni, kroimy cebulę albo na dworze staje się bardzo zimno, powstaje za dużo cieczy. Pokonuje ona napięcie powierzchniowe i pojawiają się dobrze wszystkim znane krople. Dotąd eksperci przypuszczali, że łzy trzymają się boków gałki ocznej, gdzie grubość filmu jest największa. Model Amerykanów, który uwzględniał wiele czynników, m.in. lepkość, napięcie powierzchniowe i siłę ciążenia, uzmysłowił im jednak, że niektóre "grochy" mogą się przemieszać samym środkiem. Spostrzeżenia akademików z Delaware pokrywają się z tym, co zaobserwowali ich koledzy po fachu z Uniwersytetu Stanowego Ohio. Opisali oni przypadek mężczyzny, który przez 6 minut nie zamykał oczu.
  6. W lutym 2006 roku Stany Zjednoczone we współpracy z Wielką Brytanią, Kanadą, Australią i Nową Zelandią, przeprowadziły ćwiczenia pod nazwą „Cyber Storm”. Miały one sprawdzić gotowość agend rządowych i firm prywatnych do przeciwdziałania poważnemu zagrożeniu. W bieżącym roku odbędą się ćwiczenia „Cyber Storm 2”, a aż do dzisiaj nie było wiadomo, jak przebiegły pierwsze z nich. Associated Press, powołując się na Freedom Of Information Act, złożyła przed dwoma laty wniosek o udostępnienie jej dokumentów z „Cyber Storm”. Po 24 miesiącach otrzymała kilkaset mocno ocenzurowanych stron. Przyjrzyjmy się zatem, jakie scenariusze ćwiczono. W Waszyngtonie staje metro, a sieć komputerowa portu w Nowym Jorku przestaje działać. Jednocześnie na blogach można znaleźć informacje o trasach pociągów z niebezpiecznymi substancjami. Dochodzi do zniszczenia wież kontroli lotnisk w Filadelfii i Chicago, a w londyńskim metrze ktoś rozpyla nieznaną substancję. Jednocześnie na amerykańskich lotniskach pojawia się wiele osób, które są objęte zakazem lotów. Ogólnokrajowa sieć informacyjna nadaje komunikat o tym, że radykalne grupy przygotowują liczne ataki i jednocześnie odmawia rządowym agendom podania źródła informacji. Rozpowszechniane są plotki, które powodują panikę na rynkach finansowych i wśród zwykłych obywateli. To tylko część scenariusza, który przewidywał jednoczesne wystąpienie licznych problemów i awarii. Opisywano m.in. sabotaż komputerowy, którego celem jest sparaliżowanie linii energetycznych czy przemysłu technologiczne. Pojawił się problem z systemem GPS, cyberprzestępcy zaatakowali systemy komputerowe linii lotniczych, policja w Montanie ma problemy z łącznością, a w Waszyngtonie, Miami i Nowym Jorku zamknięto szkoły. Nie działają komputery na punktach granicznych. Scenariusz podzielono na trzy rodzaje ataków: fizyczne, komputerowe i psychologiczne. W ćwiczeniach mogły brać udział tylko zaproszone firmy i instytucje. Wiadomo, że znalazły się wśród nich Departament Bezpieczeństwa Wewnętrznego, NSA, CIA, Pentagon, Departament Stanu, Departament Sprawiedliwości i inne. Ocena ćwiczeń nie jest jednoznaczna. Z dokumentu wynika, że w niektórych przypadkach firmy i instytucje wywiązały się świetnie ze swoich zadań, w innych sobie wyraźnie nie radziły. Głównym problemem było niezrozumienie przez nie roli mało znanej National Cyber Response Coordination Group. To rządowa agenda, o której niewiele wiadomo. To ona jest główną organizacją odpowiedzialną za obronę USA przed cyberatakiem i za naprawę zniszczonej podczas niego infrastruktury. Ćwiczenia „Cyber Storm” przeprowadzono za pomocą sieci komputerowej. Nie miały one wpływu na Internet, gdyż korzystano z wydzielonej podsieci NSA. Co ciekawe, podczas ćwiczeń.... ktoś zaatakował podsieć. Oczywiście, byli to uczestnicy „Cyber Storm”. Zawsze gdy zbierzesz w jednym miejscu grupę ekspertów IT, pojawia się pokusa ‘Pokażmy im, co możemy zrobić’. Musieliśmy nieco uspokoić osoby biorące udział w ćwiczeniach – mówi George Foresman, który był jedną z osób nadzorujących przebieg „Cyber Storm”.
  7. Uczonym udało się wywołać u zdrowych osób wrażenie przebywania poza ciałem. Do oszukania mózgu wykorzystali specjalne okulary, dzięki którym badany miał wrażenie, że otacza go wirtualna rzeczywistość. Podczas eksperymentu badani jednocześnie czuli dotyk na swoim ciele i mogli oglądać je z zewnątrz. W ten sposób udało się oszukać mózg, który miał problemy z przetwarzaniem dochodzących do niego sygnałów. Wrażenie oglądania opuszczenia znane jest od wieków. Mamy z nim do czynienia po zażyciu pewnych substancji, w przypadku napadów epilepsji i zaburzeń pracy mózgu. Badania zostały przeprowadzone przez Henrika Ehrssona, który pracuje w University College London oraz Karolinska Institute, a brał w nich udział także zespół Olafa Blanke z Ecole Polytechique Federale de Lausanne i szpital uniwersytecki z Genewy. Naukowcy użyli okularów 3D oraz kamer, które pokazywało badanym ich samych z tyłu. Wyświetlanemu obrazowi towarzyszyło dotykanie zarówno przez ludzi, jak i wywoływanie wrażenia dotyku za pomocą odpowiednich urządzeń. Badani podzieleni byli na grupy. Jednej z nich pokazywano zwykły obraz z kamer, a drugiej obraz, który został przetworzony tak, iż przypominał holograficzną symulację komputerową. Na nieprzetworzony film nałożono obraz plastikowego kija, który poruszał się pod poziomem kamer. Jednocześnie czujniki na ciele badanych symulowały dotyk w klatkę piersiową. Uczestniczy tego eksperymentu mówili później, że czuli się tak, jakby ich ciało należało do kogoś innego, a oni sami obserwowali je z tyłu. Eksperyment dowodzi, że dla doświadczeń cielesnych kluczową rzeczą jest oglądanie świata z perspektywy pierwszej osoby. Inaczej mówiąc, czujemy, że jesteśmy w tym miejscu, w którym znajdują się nasze oczy – mówi Ehrsson. Badanym pokazywano również młotek, uderzający poniżej poziomu kamer. Badania przewodnictwa skóry, które odzwierciedlały emocjonalną odpowiedź na widziany obraz, wskazywały, że poddani eksperymentowi rzeczywiście czuli się tak, jakby opuścili ciało. Na koniec dokonano jeszcze jednej ciekawej próby. Badanych „oślepiono”, a następnie poproszono, by wrócili do swojego ciała. Okazało się, że poddani eksperymentom próbowali poruszyć się naprzód, by znaleźć się tam, gdzie ostatnio widzieli ciało. Uczeni wywnioskowali, że za doświadczanie przebywania poza ciałem odpowiada często zaburzenie pracy mózgu, który źle interpretuje dochodzące doń sygnały. Jednak otwartą kwestią pozostaje pytanie, czy wszystkie przypadki odczuwania opuszczenia ciała są spowodowane właśnie tymi zaburzeniami – mówi Ehrsson. Naukowcy zwracają uwagę, że pojawienie się nowoczesnej technologii i wirtualnej rzeczywistości pozwoli badać te obszary, które dotychczas były niedostępne. Mamy za sobą dziesiątki lat badań nad percepcją, ale nie wiemy wiele o percepcji własnego ciała. To może się zmienić. Wirtualna rzeczywistość pozwala nam na manipulowanie sposobem, w jaki obieramy swoje ciało i prowadzenie systematycznych doświadczeń nad samoświadomością – stwierdził Blanke.
  8. Amerykański Departament Bezpieczeństwa Wewnętrznego (DHS) zaplanował na początek 2008 roku przeprowadzenie zakrojonych na szeroką skalę testów, które mają sprawdzić gotować infrastruktury informatycznej USA na odparcie cyberataku. Podobny test przeprowadzono przed rokiem. Cyber Storm był największą w historii symulacją ataku na rządowe sieci Stanów Zjednoczonych. Nowa symulacja, Cyber Storm 2, będzie miała miejsca w marcu 2008 roku. Jego ramach przeprowadzony zostanie potężny atak na sieci prywatne i rządowe. Do przeprowadzenia pierwszych ćwiczeń, w lutym ubiegłego roku, zaangażowano 115 organizacji z USA, Kanady, Wielkiej Brytanii, Australii i Nowej Zelandii. Brały w nich udział Symantec, Microsoft, Verisign, Departamenty Obrony, Sprawiedliwości, Stanu oraz Narodowa Agencja Bezpieczeństwa. W przyszłym roku liczba uczestników zostanie zwiększona, a do udziału organizatorzy chcą zaprosić więcej firm z zagranicy. W Cyber Storm 2 wezmą też udział firmy z sektorów, które wcześniej nie były zaangażowane, np. przedsiębiorstwa transportowe i chemiczne. Przedstawiciele DHS poinformowali, że podobne ćwiczenia będą odbywały się regularnie co dwa lata. Specjaliści uważają, że podczas takich symulowanych ataków ich uczestnicy dowiadują się, do kogo i w jaki sposób zwrócić się o pomoc, natomiast ćwiczenia takie niekoniecznie ujawniają słabe punkty infrastruktury informatycznej. Oni próbują odkryć słabe punkty w systemie reagowania. Nie szukają tak naprawdę rozwiązania problemów technicznych – mówi Marcus Sachs z Computer Science Laboratory.
×
×
  • Create New...