Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Specjalistom z Sandia National Laboratories udało się uruchomić ponad milion jąder Linuksa na jednym klastrze. Konfiguracja taka będzie wykorzystywana do badania botnetów oraz pozwoli symulować procesy zachodzące w Sieci. Systemy operacyjne zostały uruchomione na wirtualnych maszynach działających na klastrze Thunderbird.

Wcześniej udawało się uruchomić na jednym komputerze do 20 000 jąder. Uczeni mają nadzieję, że w przyszłości będą w stanie symulować działanie sieci całych państw, co pozwoli np. zwirtualizować i szczegółowo monitorować cyberataki.

Ron Minnich z Sandia National Laboratories, mówi: Olbrzymie rozmiary Internetu powodują, że bardzo trudno jest zrozumieć zachodzące w nim procesy. Wiele rzeczy, które się w nim dzieje nie może zostać zbadanych, gdyż nie mamy odpowiedniego modelu. Jednak dzięki możliwości jednoczesnego uruchomienia wielu kopii systemu operacyjnego, które symulują węzły w Sieci, będziemy w stanie nie tylko badać działanie Internetu na poziomie sieci, ale symulować wszelkie jego funkcje.

Prace nad uruchomieniem ponad miliona kopii jądra trwały przez dwa lata. Do pomocy zaprzęgnięto klaster Thunderbird, składający się z 4480 węzłów. Na każdym z węzłów uruchomiono 250 wirtualnych maszyn, a w każdej z nich wystartowano jedno jądro.

Zakończony sukcesem eksperyment daje nadzieję na szybszy rozwój specjalistycznego oprogramowania naukowego. Rozwój takiego oprogramowania trwa lata, a środowisko naukowe nie będzie musiało teraz czekać z jego uruchomieniem, aż pojawi się sprzęt, zdolny je obsłużyć. Pilne problemy, takie jak modelowanie zmian klimatycznych, prace nad nowymi lekami czy badania nowych źródeł energii ciągle wymagają rosnących mocy obliczeniowych - mówi Minnich.

Szacujemy, że do roku 2018 musimy dysponować komputerem wyposażonym w 100 milionów procesorów, by zaspokoić nasze potrzeby obliczeniowe. Podejście, które zaproponowaliśmy pozwoli nam już teraz rozpocząć prace nad oprogramowaniem maszyny z tak wieloma CPU, tak więc gdy będziemy mieli komputer ze 100 milionami procesorów od razu będziemy mogli go używać - dodaje.

Share this post


Link to post
Share on other sites

No to pozostaje jeszcze zaprogramować milion wirtualnych użytkowników, ich nawyki itd.... ;>

Share this post


Link to post
Share on other sites

Poza tym termin Zombie pasuje nie tylko do większości szarych zasyfionych PC'tów ale i jego użytkowników.

 

Zaprogramowanie nawyków przeciętnego forumowego trolla nie może być trudne, nawet nie trzeba pilnować ortografii czy głębszego sensu jakiegokolwiek działania :P

Share this post


Link to post
Share on other sites

Nie widze sensu odpalania pierdyliarda kerneli dla takich symulacji.

To mozna zrobic inaczej lepiej i wydajnei na poziomie jedno jądro per fizyczny node.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy od dziesięcioleci spierają się o to, czy dochodzi do wymiany materiału pomiędzy jądrem Ziemi, a warstwami położonymi powyżej. Jądro jest niezwykle trudno badać, częściowo dlatego, że rozpoczyna się na głębokości 2900 kilometrów pod powierzchnią planety.
      Profesor Hanika Rizo z Carleton University, wykładowca na Queensland University of Technology David Murphy oraz profesor Denis Andrault z Universite Clermont Auvergne informują, że znaleźli dowody na wymianę materiału pomiędzy jądrem, a pozostałą częścią planety.
      Jądro wytwarza pole magnetyczne i chroni Ziemię przed szkodliwym promieniowaniem kosmicznym, umożliwiając istnienie życia. Jest najcieplejszym miejscem Ziemi, w którym temperatury przekraczają 5000 stopni Celsjusza. Prawdopodobnie odpowiada ono za 50% aktywności wulkanicznej naszej planety.
      Aktywność wulkaniczna to główny mechanizm, za pomocą którego Ziemia sie chłodzi. Zdaniem Rizo, Murphy'ego i Andraulta niektóre procesy wulkaniczne, np. te na Hawajach czy na Islandii, mogą brać swój początek w jądrze i transportować ciepło bezpośrednio z wnętrza planety. Twierdzą oni, że znaleźli dowód na to, iż do płaszcza ziemskiego trafia materiał z jądra.
      Odkrycia dokonano badając niewielkie zmiany w stosunku izotopów wolframu. Wiadomo, że jądro jest zbudowane głównie z żelaza i aluminium oraz z niewielkich ilości wolframu, platyny i złota rozpuszczonych w żelazno-aluminiowej mieszaninie. Wolfram ma wiele izotopów, w tym wolfram-182 i wolfram-184. Wiadomo też, że stosunek wolframu-182 do wolframu-184 jest w płaszczu znacznie wyższy niż w jądrze. Dzieje się tak dlatego, że hafn, który nie występuje w jądrze, posiada izotop hafn-182. Izotop ten występował w przeszłości w płaszczu, jednak obecnie już go nie ma, gdyż rozpadł się do wolframu-182. Właśnie dlatego stosunek wolframu-182 do wolframu-184 jest w płaszczu wyższy niż w jądrze.
      Uczeni postanowili więc zbadać stosunek izotopów wolframu, by przekonać się, czy na powierzchni występują skały zawierające taki skład wolframu, jaki odpowiada jądru. Problem w tym, że istnieje mniej niż 5 laboratoriów zdolnych do badania wolframu w ilościach nie przekraczających kilkudziesięciu części na miliard.
      Badania udało się jednak przeprowadzić. Wykazały one, że z czasem w płaszczu Ziemi doszło do znaczącej zmiany stosunku 182W/184W. W najstarszych skałach płaszcza stosunek ten jest znacznie wyższy niż w skałach młodych. Zespół badaczy uważa, że zmiana ta wskazuje, iż materiał z jądra przez długi czas trafiał do płaszcza ziemskiego. Co interesujące, na przestrzeni około 1,8 miliarda lat nie zauważono zmiany stosunku izotopów. To oznacza, że pomiędzy 4,3 a 2,7 miliarda lat temu do górnych warstw płaszcza materiał z jądra nie trafiał w ogóle lub trafiało go niewiele. Jednak 2,5 miliarda temu doszło do znaczącej zmiany stosunków izotopu wolframu w płaszczu. Uczeni uważają, że ma to związek z tektoniką płyt pod koniec archaiku.
      Jeśli materiał z jądra trafia do na powierzchnię, to oznacza, że materiał z powierzchni Ziemi musi trafiać głęboko do płaszcza. Proces subdukcji zabiera bogaty w tlen materiał w głąb planety. Eksperymenty zaś wykazały, że zwiększenie koncentracji tlenu na granicy płaszcza i jądra może spowodować, że wolfram oddzieli się od jądra i powędruje do płaszcza. Alternatywnie, proces zestalania wewnętrznej części jądro może prowadzić do zwiększenia koncentracji tlenu w części zewnętrznej. Jeśli uda się rozstrzygnąć, który z procesów zachodzi, będziemy mogli więcej powiedzieć o samym jądrze Ziemi.
      Jądro było w przeszłości całkowicie płynne. Z czasem stygło i jego wewnętrzna część skrystalizowała, stając się ciałem stałym. To właśnie obrót tej części jądra tworzy pole magnetyczne chroniące Ziemię przed promieniowaniem kosmicznym. Naukowcy chcieliby wiedzieć, jak przebiegał proces krystalizacji o określić jego ramy czasowe.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dwóch pracowników Sandia National Laboratories, prywatnie myśliwych, dyskutowało o swoim ulubionym zajęciu, a efektem ich rozmów jest... prototyp samosterującego pocisku do broni ręcznej. Kula może bez większego problemu trafić w oświetlony laserem cel z odległości około 2000 metrów. Mamy bardzo obiecującą technologię kierowania małymi pociskami, która może zostać szybko i tanim kosztem udoskonalona - mówi Red Jones, który wraz z Brianem Kastem opracował pocisk.
      Ich projekt to pocisk o długości 10 centymetrów, w którego czubku umieszczono czujnik optyczny, wykrywający światło lasera. Czujnik wysyła dane do ośmiobitowego procesora, a ten steruje ruchem elektromagnetycznych aktuatorów, które z kolei zarządzają niewielkimi brzechwami korygującymi tor lotu pocisku. Obecnie większość broni strzeleckiej korzysta z gwintowanych luf. Obecność gwintu nadaje pociskom ruch obrotowy, co stabilizuje je w czasie lotu.
      Nowe pociski wystrzeliwane są z broni gładkolufowej. Stabilność lotu zapewnia umiejscowienie środka ciężkości bliżej przodu pocisku oraz wspomniane wcześniej brzechwy. Początkowo pocisk znajduje się w plastikowej osłonie, która chroni brzechwy przed kontaktem z lufą.
      Komputerowe symulacje wykazały, że nowy pocisk jest znacznie bardziej celny od tradycyjnych rozwiązań. W warunkach polowych średnie odchylenie od celu znajdującego się w odległości 1000 metrów wynosi w przypadku tradycyjnego pocisku około 9 metrów. Nowy pocisk zmniejsza tę odległość do około 0,2 metra.
      Co więcej, projekt z Sandii nie wymaga stosowania układu mierzącego inercję, który znacznie zwiększyłby cenę pocisku. Częstotliwość kołysania się lecącego pocisku jest zależna od jego wielkości. Samosterujące rakiety są duże, zatem częstotliwość odchyleń jest niewielka, co powoduje konieczność stosowania bardzo precyzyjnych mechanizmów kontroli intercji, gdyż jest niewiele okazji do skorygowania toru lotu rakiety. W przypadku pocisku o rozmiarach opracowanych przez Jonesa i Kasta, dochodzi do 30 odchyleń w ciągu sekundy, a więc tyle razy na sekundę można skorygować jego lot.
      Przeprowadzone testy wykazały, że komercyjnie dostępny proch pozwala pociskowi na osiągnięcie prędkości 731 metrów na sekundę. Specjaliści uważają, że za pomocą specjalnie dobranego prochu można będzie zwiększyć jego prędkość.
      Podczas nocnych testów do pocisków mocowano diody LED i okazało się, że baterie i cała elektronika są w stanie przetrwać lot.
      Co więcej film wykonany kamerą o dużej prędkości pokazał zaskakującą rzecz. Im dłużej pocisk leci, tym wolniej opada, co oznacza, że jest bardziej celny na większe odległości. Nikt nigdy tego nie obserwował, ale mamy to nagrane - mówi Jones.
      Sandia szuka teraz prywatnej firmy, która będzie chciała prowadzić dalsze badania nad nowym pociskiem i rozpocząć w przyszłości jego produkcję.
    • By KopalniaWiedzy.pl
      Coraz więcej osób porzuca Windows XP. Leciwy system operacyjnych stracił w grudniu 2,4 punktu procentowego rynku i obecnie jest używany przez 46,52% komputerów. Strata jest niemal tak duża, jak w październiku, gdy udziały Windows XP spadły o 2,5 pp. Pomiędzy wrześniem a grudniem system stracił 11% użytkowników, a jego rynkowe udziały zmniejszyły się o 6 punktów procentowych. Tymczasem pomiędzy majem a sierpniem strata wyniosła 8,5% użytkowników czyli 3,4 punktu procentowego. Widoczne jest zatem wyraźne przyspieszenia odchodzenia od Windows XP.
      Większość użytkowników rezygnuje z tego systemu na rzecz Windows 7. W ciągu ostatnich dwóch miesięcy udziały platformy Microsoftu nie zmieniły się i pozostają na poziomie 92,23%. W tym samym czasie o 0,1% spadły udziały Macintosha i o tyle samo wzrosła popularność Linuksa. W dłuższej perspektywie widać jednak niewielki, chociaż nie jest on stały, spadek rynkowych udziałów Windows oraz wzrost Macintosha i Linuksa. W lutym 2001 roku Windows mógł pochwalić się 93,61% udziału w rynku. Do Macintosha należało wówczas 5,42% (obecnie 6,36%), a do Linuksa 0,96% (obecnie 1,41%).
      Windows XP wciąż jest najpopularniejszym systemem operacyjnym. Należy do niego 46,52% rynku. Szybko dogania go jednak Windows 7 (36,99%).
    • By KopalniaWiedzy.pl
      Linux, który niedawno obchodził 20. urodziny, ma grupę zagorzałych zwolenników wśród użytkowników domowych, sporą część rynku serwerów i praktycznie zmonopolizował rynek superkomputerów. Jednak, jak wykazały ostatnie badania, zaczynają się od niego odwracać developerzy.
      Kalifornijska firma Evans Data Corp. przeprowadziła wśród developerów ankietę, w której pytano ich, na jakiej platformie pracują. Okazało się, że Linux spadł z drugiego na trzecie miejsce. Wyprzedził go Mac OS X, którego używa 7,9% ankietowanych developerów. Do korzystania z Linuksa przyznało się 5,6% pytanych.
      Al Hilwa z IDC nie jest zaskoczony takim wynikiem. Mac zdobywa popularność wśród użytkowników i w związku z tym wielu developerów zmienia swoje preferencje.
    • By KopalniaWiedzy.pl
      Red Hat, Canonical i Linux Foundation przygotowały rekomendacje dla producentów sprzętu komputerowego, którzy będą sprzedawali maszyny z systemem Windows 8. Co prawda najnowszy OS Microsoftu trafi na rynek pod koniec przyszłego roku, jednak już kilka miesięcy wcześniej w sprzedaży mogą pojawić się komputery przygotowane do pracy z tym systemem.
      Linuksowe firmy i organizacje obawiają się, że wymagania Microsoftu utrudnią lub wręcz uniemożliwią zainstalowanie w komputerze innych niż Windows systemów operacyjnych. Koncern z Redmond żąda, by producenci OEM, a więc firmy sprzedające komputer z preinstalowanym systemem operacyjnym, korzystali z UEFI zamiast BIOS-u i uruchamiali tam opcję bezpiecznego startu. Opcja ta ma na celu lepsze zabezpieczenie komputera poprzez sprawdzanie cyfrowych podpisów systemu operacyjnego i niedopuszczenie do uruchomienia się niepodpisanego oprogramowania.
      Producenci linuksowych systemów operacyjnych zgadzają się, że takie działanie pozwoli zabezpieczyć komputer, jednak może to sprawić kłopoty osobom, które na takim komputerze będą chciały zainstalować dodatkowy system operacyjny. Jeśli bowiem producent komputera nie wprowadzi do UEFI podpisu cyfrowego jakiegoś systemu, to nie będzie można z niego korzystać.
      Taka sytuacja może stanowić problem przede wszystkim dla Linuksa. System ten obsługuje UEFI, ale z powodów prawnych problematyczne jest podpisanie plików, ponieważ cyfrowe podpisy w systemie musiałyby być niedostępne dla osób postronnych, co kłóci się z zapisami licencyjnymi gwarantującymi otwartość kodu.
      Część środowiska linuksowego obawia się, że producenci OEM zechcą stosować jak najprostsze rozwiązania i nie dadzą użytkownikowi możliwości zmiany ustawień UEFI tak, by mógł on wyłączyć opcję bezpiecznego startu i zainstalować inny system operacyjny niż ten, który kupił wraz z komputerem. Apelują jednocześnie, by zmiana taka była jak najłatwiejsza do dokonania, żeby mogli sobie z nią poradzić niedoświadczeni właściciele komputerów.
      Ze swej strony Microsoft oświadczył, że nie wymaga od producentów OEM żadnych działań, które w jakikolwiek sposób ograniczałyby użytkownikowi możliwość zmiany konfiguracji firmware'u komputera.
×
×
  • Create New...