Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Międzynarodowa grupa naukowców chce zrealizować prawdopodobnie najbardziej ambitny projekt obliczeniowy w historii ludzkości. W ramach Living Earth Simulator (LES) ma powstać symulacja wszystkiego, co dzieje się na Ziemi - od globalnych zmian pogodowych, poprzez rozprzestrzenianie się chorób czy transakcje finansowe po sytuację na drogach lokalnych. LES ma pozwolić naukowcom zrozumieć to, co dzieje się na naszej planecie, zbadać wpływ ludzi na zmiany w społeczeństwie czy działanie sił przyrody na naszą rzeczywistość.

Doktor Dirk Helbing ze Szwajcarskiego Instytutu Technologicznego, przewodniczący projektu FuturICT w ramach którego ma powstać LES, zauważa, że wiele zmian i problemów na Ziemi jest związanych z ludzką aktywnością, ale wciąż w pełni nie rozumiemy tego, w jaki sposób działa społeczeństwo czy gospodarka. Dodaje, że dzięki takim narzędziom jak Wielki Zderzacz Hadronów wiemy więcej o wszechświecie niż o własnej planecie.

Zgodnie z wizją Helbinga, LES najpierw musiałby zostać wyposażony w gigantyczną bazę danych dotyczących Ziemi i ludzkości. Symulator nie działałby na pojedynczym komputerze, ale w sieci potężnych superkomputerów, które jeszcze nie istnieją. Uczony dodaje, że o ile odpowiedni sprzęt jeszcze nie istnieje, to dysponujemy już danymi potrzebnymi do działania LES. Helbing planuje włączyć do LES wiele źródeł informacji, takich jak np. Planetary Skin. To rozwijany przez NASA projekt, w ramach którego ma powstać sieć czujników zbierających dane z ziemi, wody, powietrza i przestrzeni kosmicznej. Z LES mogłyby zostać zintegrowane też Wikipedia, Google Maps czy rządowa brytyjska baza data.gov.uk. Po zintegrowaniu dziesiątków takich źródeł danych musiałby framework (szkielet) do zbudowania modeli obliczeniowych, symulujących to, co dzieje się na planecie.

Technologia konieczna do skonstruowania LES może pojawić się już w nadchodzącej dekadzie. Symulatorowi potrzebne będą np. dobrze rozwinięte sieci semantyczne, które nie tylko będą w stanie przetworzyć dane, ale również je zrozumieć. Dla obecnych systemów komputerowych informacje dotyczące np. zanieczyszczenia powietrza wyglądają tak samo jak dane dotyczące migracji ludności. Jednak jeśli chcemy stworzyć prawdziwą symulację procesów na Ziemi musimy dysponować komputerami, które potrafią odróżnić od siebie i zrozumieć takie dane w odpowiednim kontekście. Jednocześnie LES musi być w stanie zrozumieć, wyodrębnić i usunąć informacje dotyczące konkretnych osób. Tylko wówczas bowiem uda się osiągnąć pożądany efekt - symulować niemal wszystko, bez jednoczesnych obaw o zachowanie prywatności.

Oczywiście taka symulacja będzie wymagała olbrzymiej mocy obliczeniowej, ale jej uzyskanie nie powinno stanowić większego problemu. Specjaliści szacują bowiem, że już obecnie Google dysponuje 39 000 serwerów, które miesięcznie przetwarzają eksabajt danych. Jeśli prace nad LES rzeczywiście rozpoczną się w nadchodzącej dekadzie, to uzyskanie znacznie większej mocy obliczeniowej będzie stosunkowo łatwe. Pete Warden, twórca projektu OpenHeatMap i specjalista ds. przetwarzania danych zauważa, że dla LES będzie przydatna jedynie niewielka część z kilkuset eksabajtów danych, jakie są corocznie wytwarzane przez ludzkość. A skoro tak, to moc obliczeniowa nie będzie wąskim gardłem systemu. Jego zdaniem znacznie trudniejsze będzie uzyskanie dostępu do danych oraz wstępna eliminacja nieprzydatnych informacji.

W ciągu ostatnich lat stało się np. jasne, że potrzebujemy lepszych wskaźników niż PKB do oceny rozwoju społeczeństwa i jego dobrobytu - mówi Helbing. LES ma właśnie pokazać stan społeczeństwa, rozwoju opieki zdrowotnej, edukacji czy ochrony środowiska. Zdaniem Helbinga, dzięki takiemu projektowi ludzkość będzie mogła stać się szczęśliwsza.

Share this post


Link to post
Share on other sites

Mnie od razu się skojarzyło z NWO ;) może ten tytuł tak magicznie działa.

Pytanie: Po co im ten symulator? wskaźnik PKB w stosunku do rozwoju społeczeństwa i jego dobrobytu ma się jak pies do wydry. To w LES to akurat dałbym na szary koniec listy, ale coś trzeba ludziom powiedzieć by przyklaskali projektowi, jak małpę na banana. Czytałem tyle co w miesięczniku 21 wiek, że w planach jest zrobienie czujników wielkości góra 1 mm i umieszczenie ich na całej planecie, także jedno z drugim wspaniale się łączy. Stwarza to oczywiście niesamowite możliwości, zarówno pozytywne jak i negatywne.

Share this post


Link to post
Share on other sites

Osobiści nie za bardzo widzę sens w tworzeniu czegoś co będzie posiadało informację o wszystkim, a poza tym już jest i nazywa się internet. Można ewentualnie tylko dodawać kolejne dane i tworzyć systemy symulujące np. działalność człowieka itp. Chociaż życie jest tak różnorodne i zmienne, że nie wiem czy będzie kiedyś to możliwe.

 

Swoją drogą zadziwiające jaką karierę może zrobić stwierdzenie jakiegoś idioty, który nie wie albo nie chce wiedzieć co to jest PKB itp.

Share this post


Link to post
Share on other sites

jest teoria ktora mowi ze znajomosc stanu ukladu pozwala przewidziec nastepny stan

 

i smiem przypuszczac ze MB tego wlasnie sie obawia

 

zatem jesli nie znajdujecie zadnych innych zastosowan (ja je znajduje)

oto jest zastosowanie ostateczne

Share this post


Link to post
Share on other sites

@Belisariusz: w LES nie chodzi o zgromadzenie informacji - tego zresztą tez nie masz w internecie, bo informacje są niezwykle pofragmentowane, a do wielu nie ma dostępu - tu idzie o ich analizę, modelowanie. Jeśli takie coś by wypaliło, to wiele rządów rozpocznie centralne planowanie życia swoim poddanym (oczywiście, dla ich szczęścia). Przyjdziesz do urzędu zarejestrować firmę produkującą bombki choinkowe, to się dowiesz, że z LES wynika, iż coraz mniej ludzi będzie w przyszłości ubierało choinki, więc nie możesz takiej firmy założyć, bo komuś zabierzesz gdzieś pracę. Ale, jak się dowiadujemy z LES, znajomi na forach chwalą Twoje wypieki, a tak się składa, że w Pierdziszewie Górnym brakuje piekarza. Więc dostaniesz nakaz pracy i jazda do Pierdziszewa. A jak do piekarni w Pierdziszewie przyjdzie do Ciebie pan Kowalski po biały chleb, to się dowie, że Centralny Urząd Piekarnictwa ograniczył plany produkcji białego chleba w Pierdziszewie, bo dostał od Centralnego Urzędu Planownia Zdrowia Ludności informacje, że w okolicy występuje zbyt dużo problemów z jelitem grubym. "A poza tym, Kowalski, powinniście zacząć się lepiej odżywiać, bo coś za często do lekarza chodzicie i ZUS musi za dużo do Was dopłacać".

Share this post


Link to post
Share on other sites

Nigdy nie stworzą symulacji która odda rzeczywistość w 100% i zdoła przetworzyć ją tak, żeby przewidzieć nadchodzące wydarzenia. Mogą zrobić symulację która w prostych modelach się sprawdza, ale zawsze pojawią się czynniki które totalnie zepsują im wyniki...

 

Tak jak z socjologią, niby wszystko działa tak jak powinno, i nagle pojawia się jednostka z odpowiednią charyzmą i wszystko zmienia..

 

Zresztą co tu dużo szukać, niech głupią pogodę przewidzą na 2 tygodnie wcześniej, i już będzie dobrze ;) a oni mają problem z pogodą na 3 następne dni. Niby się sprawdza, nawet modele numeryczne, ale w sytuacji jak zaczynasz na nich polegać, to nagle okazuje się że jest całkiem inaczej niż 3 dni temu przewidywali...

 

Pamiętacie jak we wrześniu "amerykańscy naukowcy" wyliczyli że będziemy mieli w połowie listopada -30 stopni? I wielka d*pa... im wyszła, bo było +14... :P

 

i tak będzie z tym ich symulatorem, jedyne co ta wielka moc obliczeniowa wygeneruje na 100% to od groma ciepła...

Share this post


Link to post
Share on other sites

Fajny, kuszący projekt, aczkolwiek całkowicie nierealny. Każde zwiększenie precyzji odwzorowania o malutki kroczek, to wykładnicze zapotrzebowanie mocy obliczeniowej i pamięci masowej. Nie tacy spece obecnie zajmują się już prognozowaniem pogody, przewidywaniem reakcji giełdy czy analizą huraganów i trzęsień ziemi, nie mówiąc już o ruchach społecznych czy pracy ludzkiego umysłu, a średnio im to wychodzi. Jeśli już, będzie to jakieś SuperGoogleEarth, nic więcej.

 

Specjaliści szacują bowiem, że już obecnie Google dysponuje 39 000 serwerów, które miesięcznie przetwarzają eksabajt danych.

 

Nie wiem skąd takie dane. Według http://www.datacenterknowledge.com/archives/2009/05/14/whos-got-the-most-web-servers/ w 2006 było to już 450 tys. Według infografiki http://www.intac.net/a-comparison-of-dedicated-servers-by-company_2010-04-13/ Google może mieć szacunkowo nawet 1 milion serwerów.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...