Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37652
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    249

Zawartość dodana przez KopalniaWiedzy.pl

  1. Podczas konferencji Supercomputing 2010 główny inżynier Nvidii, Bill Dally, zaprezentował projekt układu graficznego, który będzie napędzał eksaflopsowe komputery. System Echelon, który na razie istnieje tylko na papierze, będzie charakteryzował się wydajnością rzędu 10 teraflopsów. Wykona on pojedynczą operację zmiennoprzecinkową zużywając do tego celu zaledwie 10 pikodżuli, czyli 20-krotnie mniej niż obecne układy Fermi. Echelon składa się ze 128 procesorów strumieniowych, z których każdy zbudowany jest z 8 rdzeni. W efekcie otrzymamy 1024-rdzeniowy procesor, którego każdy rdzeń jest w stanie wykonać w jednym takcie zegara cztery operacje zmiennoprzecinkowe o podwójnej precyzji. Odpowiada to wydajności 10 teraflopsów. Echelon będzie zatem korzystał z dwukrotnie większej liczby rdzeni niż obecne najbardziej wydajne GPU Nvidii, z których każdy wykona czterokrotnie więcej operacji w takcie zegara. Poważne zmiany zajdą też w podsystemie pamięci. Echelon będzie miał do dyspozycji 256 megabajtów dynamicznie konfigurowalnej SRAM. Pamięć będzie można podzielić aż na sześć różnych poziomów, przydzielając każdemu z rdzeni własną przestrzeń. Dzięki takiej konfiguracji dane będą znajdowały się możliwe blisko miejsca przetwarzania, co pozwoli zaoszczędzić olbrzymią ilość energii zużywanej obecnie na ich przesyłanie. Ponadto chip zostanie wyposażony w mechanizm rozgłaszania, dzięki któremu wyniki poszczególnych działań będą mogły zostać udostępnione dowolnemu węzłowi, który będzie ich potrzebował. Struktura pamięci podręcznej układu będzie spójna pod względem logicznym ze strukturą CPU, co ułatwi tworzenie oprogramowania dla Echelona. Nvidia pracuje nad Echelonem w ramach finansowanego przez DARPA projektu Ubiquitous High Performance Computing. Firma rywalizuje tutaj z Intelem, MIT-em i Sandia National Laboratory. DARPA postawiła przed uczestnikami programu zadanie zbudowania do 2014 roku prototypowego petaflopsowego systemu, który ma zużywać nie więcej niż 57 kilowatów mocy. Taki system ma stać się podstawą do zbudowania do 2018 roku eksaflopsowego superkomputera.
  2. Veronique Bohbot, profesor psychiatrii zatrudniona w Douglas Mental Health University Institute i McGill University ostrzega, że nałogowi użytkownicy nawigacji satalitarnej (GPS) ryzykują... uszkodzeniem mózgu. Bohot i jej zespół z McGill University przeprowadzili serię trzech badań, które wykazały, iż użytkownicy GPS narażeni są na wyższe od innych ryzyko pojawienia się problemów z pamięcią i orientacją przestrzenną. Ludzie poruszają się w przestrzeni na dwa sposoby. Pierwszy, to orientacja według punktów orientacyjnych. Drugi polega na podświadomym zbudowaniu w mózgu mapy z drogami, którymi się poruszamy i np. skręcaniu tam, gdzie zwykle, by dotrzeć do danego punktu. Ta druga metoda jest podobna to tego, w jaki sposób GPS prowadzi kierowcę samochodu. Z funkcjonalnego rezonansu magnetycznego (fMRI) wiadomo, że podczas nawigowania w przestrzeni za pomocą drugiego z opisanych sposobów, mamy do czynienia ze zwiększoną aktywnością w hipokampie. Kanadyjscy naukowcy odkryli teraz, że intensywne posługiwanie się nawigacją satelitarną może prowadzić do atrofii hipokampu w miarę starzenia się organizmu. To z kolei zwiększa ryzyko pojawienia się problemów kognitywnych, takich jak choroba Alzheimera. Wiadomo, że alzheimer najpierw atakuje hipokamp, co prowadzi do problemów z pamięcią i orientacją w przestrzeni. Ponadto wykazano, że osoby, które posługują się drugim ze sposobów orientacji w przestrzeni, mają więcej szarej materii w hipokampie. Osoby takie lepiej rozwiązują testy kognitywne od osób korzystających w przestrzeni z punktów orientacyjnych. To sugeruje, że posiadanie pamięci przestrzennej poprawia pracę hipokampu, a to wpływa na lepszą jakość życia. Na razie uczeni nie są pewni, czy to używanie drugiego z systemów orientacji w przestrzeni wpływa pozytywnie na rozwój hipokampu, czy też to stopień jego rozwoju decyduje o tym, w jaki sposób orientujemy się w przestrzeni. Profesor Bohbot mówi, że powinniśmy używać systemów GPS tak, by nie stać się od nich zależnymi. Stworzenie w mózgu własnej mapy otoczenia zajmuje więcej czasu i jest trudniejsze niż korzystanie z GPS-u, jednak to inwestycja warta wysiłku.
  3. Wafaa Bilal, Irakijczyk piastujący stanowisko profesora na Wydziale Fotografii Uniwersytetu Nowojorskiego (NYU), zamierza się poddać operacji wszczepienia aparatu fotograficznego z tyłu głowy. Przez rok wykonywane w minutowych odstępach zdjęcia będą przesyłane do monitorów katarskiego Arabskiego Muzeum Sztuki Współczesnej, którego otwarcie zaplanowano na 30 grudnia. Na lokalizację Mathafu (po arabsku "muzeum") wybrano Ad-Dauhę, stolicę kraju. Zgromadzono tu ponad 6000 dzieł, reprezentujących podstawowe nurty sztuki arabskiej od lat 40. XIX wieku po współczesność. Projekt Bilala, realizowany pod kryptonimem "Trzeci ja", co przywodzi na myśl trzecie oko (wyrazy "ja" - "I" i "oko" - "eye" są identyczne brzmieniowo) i związane z nim możliwości, wzbudza sporo kontrowersji. Sceptycy wskazują na konieczność wskazania granic między wyrazem artystycznym a prawem studentów, pracowników uniwersytetu i innych osób do prywatności. Sam profesor odmawia komentarza, ale jego znajomi ujawniają, że operacja planowana jest na najbliższe tygodnie. Wszczepiane urządzenie ma wielkość paznokcia i zostanie zamocowane podobnie jak kolczyki. W materiałach prasowych muzeum, które złożyło Bilalowi niecodzienną propozycję, napisano, że projekt stanowi komentarz do braku czasu i niezdolności uchwycenia wspomnień oraz doświadczeń. "Trzeci ja" uświetni otwarcie Mathafu. Bilal poinformował swoją przełożoną o zamówieniu jeszcze w styczniu, a ta z kolei powiadomiła dziekana. Problem szeroko dyskutowano, ale nadal nie ustalono, na jakich zasadach Bilal i jego kamera będą się poruszać na terenie kampusu. Wykładowca poinformował wszystkich swoich studentów i zagwarantował, że będzie zakrywał obiektyw, przebywając na terenie uniwersytetu. Najprawdopodobniej władze uczelni nakażą mu także wyłączać urządzenie w budynkach NYU. To nie pierwsze kontrowersyjne działanie Irakijczyka. Przed dwoma laty, realizując projekt Virtual Jihadi, włamał się np. do gry wideo, gdzie umieścił awatar siebie w roli zamachowca-samobójcy polującego na George'a W. Busha.
  4. Intel rozszerza swoje wpływy na rynku układów scalonych na zamówienie. Jeszcze do niedawna fabryki koncernu produkowały tylko na jego potrzeby. Przed dwoma tygodniami poinformowaliśmy, że Intel podpisał z Achronix Semiconductor umowę, na podstawie której w zakładach firmy będą powstawały układy FPGA dla Archoniksa. Teraz firma zyskała kolejnego klienta. Jest nim Lilliputian Systems, producent ogniw paliwowych. Ponadto koncern objął udziały w mniejszej firmie. Intel będzie produkował plastry krzemowe dla Lilliputian. Ich produkcją zajmie się fabryka w Hudson, w której powstają 200-milimetrowe plasty. Tworzone z intelowskich części układy znajdą się w pierwszym produkcie tej firmy, USB Mobile Power System. Technologia Lilliputian o nazwie Silicon Power Cell korzysta z ogniw paliwowych na tlenku stałym (SOFC) oraz systemów mikroelektromechanicznych (MEMS), a paliwem jest butan.
  5. Huangyang Chen, naukowiec z Uniwersytetu Soochow w Jiangsu zaproponował koncepcję "efektu antylustrzanego". Powoduje on, że wiele obiektów wygląda jak jeden. Jest to zatem przeciwieństwo lustra, które powoduje, iż jeden obiekt widzimy podwójnie lub wielokrotnie. Demonstrując swój pomysł, Chen opisuje dwa identyczne cylindryczne idealne przewodniki elektryczne umieszczone po dwóch stronach idealnej soczewki wykonanej z materiału o ujemnym indeksie refrakcji. Z pewnej odległości oba przewodniki będą wyglądały jak jeden. Jeśli później jeden z cylindrycznych przewodników zamienimy na urządzenie o kształcie eliptycznym, będą wyglądały jak urządzenie o kształcie eliptyczno-cylindrycznym. Dalsze prace wykazały, że iluzje eliptyczno-cylindryczne mogą zastąpić oba prawdziwe cylindryczne przewodniki i zobaczymy jedną iluzję. Oba iluzoryczne przedmioty są bowiem na tyle blisko siebie, że ich przestrzenie się nakładają. Efekt antylustrzany pojawia się dzięki rozszerzeniu zanikającej fali przez idealną soczewkę - wyjaśnia Chen. Jego prace mogą mieć praktyczne zastosowanie np. w produkcji oświetlenia LED. Producenci lamp wykorzystujących diody zmagają się bowiem z problemem osiągnięcia odpowiedniej jasności. Jedną z metod jego rozwiązania jest umieszczenie wielu diod w pojedynczej lampie. Jednak wówczas przestrzeń nie jest oświetlana równomiernie. Zastosowanie efektu antylustrzanego umożliwiłoby osiągnięcie wrażenia, że źródłem światła jest pojedyncza LED. Uzyskalibyśmy wówczas równomierne oświetlenie. Taka sama metoda mogłaby posłużyć do zwiększenia mocy i zachowania jednolitości światła laserowego. Zwykle jednolitość światła jest zaburzana wskutek interferencji fal emitowanych przez różne źródła. Dzięki efektowi antylustrzanemu wiele spójnych źródeł światła działałoby jak jedno o tej samej częstotliwości i fazie, co podwajałoby amplitudę i czterokrotnie zwiększało całkowitą moc systemu.
  6. Ludzie z wyższym wskaźnikiem masy ciała mają bardziej czuły zmysł powonienia, jeśli chodzi o jedzenie. Dr Lorenzo Stafford z Wydziału Psychologii University of Portsmouth opublikował wyniki swoich badań w najnowszym wydaniu pisma Chemical Senses. Naukowiec sprawdzał, czy bycie głodnym lub najedzonym wpływa na zdolność odróżniania zapachów. Odkrył, że gdy ludzie są głodni, mają wyczulony nos na zapachy niespożywcze, ale wykrywanie woni jedzenia idzie im, co ciekawe, lepiej po zapełnieniu żołądka. Dalsza analiza uzyskanych wyników pokazała, że w porównaniu do osób z niskim BMI, badani z wysokim wskaźnikiem masy ciała mieli gorsze powonienie w przypadku zapachów niezwiązanych z jedzeniem i większą wrażliwość na zapach pokarmów. Na razie psycholodzy nie wiedzą, czemu ludzie lepiej wyczuwają woń jedzenia po jedzeniu, ale wg doktora Stafforda, w ten sposób ciało wykrywa i odrzuca pokarmy, których już nie potrzebuje do podtrzymania właściwej równowagi energetycznej. Wspierając rezultaty wcześniejszych badań, najnowsze wyniki sugerują, że osoby z wyższym BMI mają upośledzony węch w odniesieniu do zapachów niespożywczych. Gdy jednak w grę wchodzi woń jedzenia, te same jednostki wypadają lepiej. Można spekulować, że w przypadku ludzi z tendencją do tycia wyczulony na jedzenie węch odgrywa bardziej aktywną rolę w kształtowaniu ilości spożywanych pokarmów. Brytyjczyk wyjaśnia, że już od jakiegoś czasu wiemy, że kora węchowa jest połączona z rejonami mózgu związanymi z odżywianiem. Mniej jasne było jednak, do jakiego stopnia kontroluje ona ilość zjadanego pokarmu. Zespół z Portsmouth przeprowadził 2 eksperymenty. W sumie wzięły w nim udział 64 osoby w wieku 18-49 lat. W przypadku woni niespożywczych ustalano próg wrażliwości zmysłowej, czyli najmniejszą ilość zapachu, przy której dany człowiek cokolwiek wyczuwał. W przypadku zapachów jedzenia chodziło zaś o odróżnienie woni pokarmu od zapachu neutralnego. W badaniach wykorzystano zapach n-butanolu (zapach niespożywczy) oraz aromat naturalnych ziół, który stosuje się w przemyśle spożywczym.
  7. W ofercie Vobis pojawił się nowy komputer typu "wszystko w jednym" firmy Lenovo - model A310-2. Urządzenie wyróżnia się niecodziennym, oryginalnym wzornictwem oraz zastosowaniem najnowocześniejszych komponentów - m.in. procesora Intel Core i3 oraz 21,5-calowego, dotykowego monitora Full HD. A310-2 to komputer stacjonarny dla estetów - urządzenie w niczym nie przypomina standardowych, nudnych "pecetów". Obudowa najnowszego dzieła Lenovo wykonana jest z białego tworzywa sztucznego, ozdobionego metalowymi elementami - całość przypomina produkty Apple'a. Na pierwszy rzut oka najnowszy komputer Lenovo wygląda jak klasyczny - aczkolwiek bardzo elegancki - monitor LCD. Dopiero po bliższym przyjrzeniu się zobaczymy, że w jego podstawę wbudowano w pełni funkcjonalny komputer PC. Wyposażono go m.in.: w procesor Intel Core i3, 4 GB pamięci RAM, dysk twardy o pojemności 500 GB oraz zintegrowany układ graficzny. Co ważne, wbudowany ekran jest dotykowy - dzięki temu aplikacjami możemy sterować dotykając wyświetlacza. Znajdziemy tu również cztery porty USB 2.0, wyjście HDMI (przydatne, gdy zechcemy np. obejrzeć film na ekranie telewizora) oraz port FireWire. Konfigurację uzupełniają m.in.: moduł bezprzewodowej sieci WiFi oraz Bluetooth, wbudowany czytnik kart pamięci a także głośniki. W zestawie z komputerem nabywca znajdzie również stylową klawiaturę i mysz. Oczywiście oba urządzenia komunikują się z "pecetem" bezprzewodowo - a to znaczy, że użytkownik uniknie plątaniny kabli na biurku i pod nim. Do Lenovo A310-2 wystarczy bowiem doprowadzić tylko jeden przewód - zasilający. Wszystkie inne są zbędne. Komputer, wraz z Windows 7 Home Premium, kosztuje w sklepach Vobis 3999 pln.
  8. Fisetyna, flawonoid występujący naturalnie m.in. w truskawkach, opóźnia moment wystąpienia zaburzeń ruchowych oraz zgon w 3 mysich modelach choroby Huntingtona (HD). Odkrycie to pozwala naukowcom z Salk Institute snuć plany dotyczące dalszych badań nad ochronnymi właściwościami fisetyny i to nie tylko w przypadku pląsawicy Huntingtona, ale i innych chorób neurodegeneracyjnych. Przyczyną choroby Huntingtona jest mutacja w położonym na chromosomie 4. genie kodującym białko huntingtynę. Nieprawidłowa proteina gromadzi się w komórkach nerwowych, powodując ich śmierć. Patologiczne zmiany dotyczą głównie kory mózgowej, jądra ogoniastego i skorupy. Dla schorzenia typowe są niekontrolowane ruchy oraz otępienie. Zmutowana huntingtyna wpływa na ścieżkę sygnałową Ras/ERK. Jest ona aktywowana przez czynniki wzrostu i odgrywa ważną rolę w rozwoju mózgu, uczeniu, pamięci i funkcjonowaniu poznawczym. W ramach wcześniejszych studiów dr Pamela Maher odkryła, że fisetyna wspomaga pamięć i działa neuroochronnie właśnie poprzez uruchamianie ścieżki Ras/ERK. Ponieważ wiadomo, że Ras/ERK jest mniej aktywna w chorobie Huntingtona, sądziliśmy, że fisetyna może się okazać skuteczna w przypadku tego zaburzenia. Amerykański zespół rozpoczął badania z linią hodowlaną neuronów, w której można było doprowadzić do ekspresji wadliwej formy huntingtyny. Bez leczenia w ciągu kilku dni umierało ok. 50% tych komórek. Dodanie flawonoidu zapobiegało obumieraniu i wszystko wskazywało na to, że udawało się to dzięki aktywacji kaskady enzymatycznej Ras-ERK. Po eksperymentach na hodowlach komórkowych przyszedł czas na studia z udziałem muszek owocowych z nadekspresją zmutowanego białka w mózgu. Tym razem z Maher współpracował dr Lawrence Marsh z Uniwersytetu Kalifornijskiego w Irvine. Zmodyfikowane genetycznie owady żyły krócej od swoich pobratymców i dochodziło u nich do wadliwego rozwoju oczu. Po zaaplikowaniu fisetyny muszki żyły dłużej, pojawiało się też mniej wad oka. Na końcu rozpoczęły się badania na modelu mysim. Gryzonie z HD również żyją krócej i wcześnie wykazują deficyty ruchowe. Po podaniu fisetyny okazało się, że udało się odroczyć początek zaburzeń motorycznych, a długość życia zwiększyła się aż o 30%. Fisetyna nie była w stanie odwrócić bądź zahamować postępów choroby, ale leczone myszy zachowywały lepsze umiejętności ruchowe na dłużej, poza tym żyły dłużej – podkreśla Maher. Na razie nie testowano fisetyny na ludziach. Amerykanka sądzi jednak, że dzięki niej można by poprawić jakość życia wielu chorych. Nie ma gwarancji, że związek o znanym działaniu przeciwzapalnym wpłynie na pacjentów z zaawansowaną HD, ale powinien się sprawdzić u osób z podejrzeniem pląsawicy. Komórki są niszczone i umierają jeszcze przed wystąpieniem oczywistych objawów. Gdyby więc ludzie wiedzieli, że mają mutację, mogliby zacząć terapię zawczasu, zamiast czekać, aż choroba stanie się widoczna, jak dzieje się to obecnie w wielu przypadkach. Maher uzyskała sporo pochodnych fisetyny, które działają jeszcze skuteczniej od substancji wyjściowej. Na razie ekipa z Salk Institute uważa, że nie zaszkodzi skorzystać z właściwości truskawek, tym bardziej że fisetyna podtrzymuje odpowiedni poziom glutationu – głównego przeciwutleniacza komórkowego.
  9. Okołonaczyniowa tkanka tłuszczowa (ang. perivascular adipose tissue) przyczynia się do rozwoju chorób sercowo-naczyniowych, zwłaszcza u diabetyków. Zespół doktora Davida Manki z University of Cincinnati ustalił, że tłuszcz gromadzący się wokół naczyń może prowadzić do powstawania złogów miażdżycowych lub rozbijania już istniejących, co zagraża zawałem bądź udarem. Otyłość jest coraz poważniejszym problemem, ale większość informacji pochodzących od naukowców i klinicystów dotyczy trzewnej tkanki tłuszczowej – nazywanej też brzuszkiem piwnym [...]. Tłuszcz gromadzący się wokół większych naczyń organizmu jest w dużej mierze ignorowany. W ramach opisywanego studium chcieliśmy sprawdzić, czy ma jakiś wpływ na początek choroby sercowo-naczyniowej, zwłaszcza u cukrzyków lub osób w inny sposób zagrożonych. Amerykanie przeszczepiali tkankę tłuszczową w okolice naczyń myszy predysponowanych do cukrzycy i chorób sercowo-naczyniowych. Typowa mysz nie ma naturalnie okołonaczyniowej tkanki tłuszczowej. Odkryliśmy, że w modelu mysim złogi tworzyły się wewnątrz tętnicy dokładnie pod przeszczepionym tłuszczem. [...] Stwierdziliśmy także, że tkanka tłuszczowa spowodowała, iż wokół większych naczyń rosły mniejsze (tworząc tzw. vasa vasorum, czyli naczynia naczyń). W innych sytuacjach nie miało to miejsca. Manka zaznacza, że dotąd nie wiedziano, co pojawia się pierwsze - vasa vasorum czy złogi tłuszczu w tętnicach wieńcowych. Jeśli nie masz tłuszczu na zewnątrz naczynia, nie następuje aktywacja vasa vasorum, która powoduje rozrywanie złogów, prowadząc do zawału lub udaru. Próbujemy ustalić związek przyczynowo-skutkowy między vasa vasorum a niestabilnością blaszek i teraz mamy model do badania tego zjawiska. Zespół utrzymuje, że okołonaczyniowa tkanka tłuszczowa jest wrażliwa na sygnały metaboliczne i może stanowić łącznik między zaburzeniem metabolicznym a chorobą naczyniową. Niewykluczone, że właśnie dlatego diabetyków cechuje większa zapadalność na choroby sercowo-naczyniowe. Nie wiemy dokładnie, jak wygląda zależność. Okołonaczyniowa tkanka tłuszczowa wychwytuje bodźce metaboliczne, sama staje się dysfunkcyjna, co przekłada się na miejscowe zapalenie naczynia. W przyszłości naukowcy chcą zidentyfikować szlaki molekularne, których regulacja wygląda inaczej w poszczególnych rodzajach tłuszczu, by sprawdzić, co wywołuje chorobę i stan zapalny.
  10. Wiadomo, że palenie tytoniu sprzyja nowotworom, nie tylko rakowi płuc. Okazuje się jednak, że nawet u osób, które już rzuciły palenie, wyleczenie guzów w obrębie głowy i szyi jest znacznie trudniejsze. Allen M. Chen z University of California w Davis przeprowadził porównawcze badanie skuteczności radioterapii u osób, które paliły w przeszłości i osób, które nie paliły nigdy; osoby palące podczas terapii i po niej wykluczano z badania w ogóle. Do obu grup zaklasyfikowano po około siedemdziesiąt osób z płaskonabłonkowymi nowotworami jamy ustnej i krtani, które nie dawały przerzutów. Dobrano osoby w grupach tak, żeby miały one zbliżone proporcje płci, wieku, rasy, itp. Po trzech latach od naświetlania 82 procent osób nigdy nie palących było całkowicie wyleczonych, wobec jedynie 65 procent osób, które były w swoim życiu palaczami. Podobnie niekorzystnie dla palących wypada porównanie ilości nawrotów choroby: 14 do 26. Wynika z tego, że papierosowy epizod w życiu znacząco zmniejsza szanse wyleczenia niektórych postaci raka. Nie jest znany mechanizm tej zależności. Uwzględniane przypadki guzów naukowcy wiążą z infekcją wirusem brodawczaka ludzkiego (HPV, Human Papilloma Virus), który sprzyja powstawaniu niektórych nowotworów. Stąd autorzy badania tutaj doszukują się mechanizmu. Podejrzewa się, że efekt terapii wzmacniany jest charakterystycznym antygenem na powierzchni nowotworowych komórek, który rozpoznawany jest i atakowany przez układ odpornościowy. Drugą teorią jest mniejsza liczba mutacji w nowotworach powodowanych przez HPV u osób niepalących. Znaczenie badania jest większe, niż rada „nie pallić", bowiem zrozumienie, co powoduje lepszy lub gorszy efekt terapii może zaowocować opracowanie lepszych, skuteczniejszych metod leczenia. Dlatego badania będą kontynuowane.
  11. „Bramy chaosu" - to brzmi jak tytuł powieści fantasy. A tu zaskoczenie, bo bramy, a dokładniej bramki chaosu (chaogates, czyli chaobramki) to nowa technologia konstruowania układów elektronicznych, którą stworzył zespół pod kierunkiem Williama Ditto, dyrektora School of Biological Health Systems Engineering na Arizona State University. Chaobramki mają być alternatywą dla standardowych, zero-jedynkowych układów scalonych, a wykorzystywać mają logikę opartą o matematyczną teorię chaosu. Jak to działa? Do stworzenia nowego rodzaju układów logicznych zespół wykorzystał chaotyczne wzorce sygnałów (wybrane z nieograniczonego zestawu chaotycznych wzorów) do kodowania i manipulacji danymi wejściowymi, żeby otrzymać w efekcie pożądane dane wyjściowe, co posłużyło za plan projektu. Takie podejście oferuje możliwość wykorzystania bogatych możliwości, jakie daje nieliniowa dynamika przetwarzania do stworzenia układów potrafiących się samodzielnie przekonfigurowywać w układ bramek logicznych najbardziej odpowiedni do wykonania zadania. Takie zmieniające się bramki logiczne nazwano właśnie chaobramkami. Koncepcja została przedstawiona w periodyku Chaos. Wedle słów samego wynalazcy: chaobramki to cegiełki nowego, opartego o chaos, systemu komputerowego, który wykorzystuje gigantyczne możliwości chaotycznego tworzenia wzorców w celach obliczeniowych. Wyobraźmy sobie komputer, który potrafi zmienić swoje wewnętrzne działanie, tworząc miliard własnych układów na sekundę, dostosowując się do tego, co w czasie tej sekundy robi użytkownik; rekonfiguruje się sam, tworząc najszybszy możliwy komputer dla osiągnięcia wyznaczonego celu. ChaoLogix, firma elektroniczna założona na Florydzie przez Williama Ditto i jego współpracowników już realizuje te zapowiedzi, tworząc pierwsze prototypy. Posiada ona opatentowaną technologię pozwalającą wytwarzać takie układy w krzemie, w jednym procesie technologicznym ze standardowymi, binarnymi bramkami logicznymi i pamięcią. Według autorów, technologia pozwoli na tworzenie bezpiecznych układów scalonych, o wiele trudniejszych do sprzętowego przełamania zabezpieczeń oraz samoprzekształcających się układów, oferujących wyjątkowe możliwości na przykład w dziedzinie gier.
  12. Naukowcy z Imperial College London opracowali teoretyczną koncepcję manipulowania światłem przechodzącym w pobliżu obiektu. To oznacza, że teoretycznie możliwe jest ukrycie przed obserwatorem rozgrywających się wydarzeń tak, by nie zdawał on sobie z tego sprawy. Jak wcześniej donosiliśmy, profesor John Pendry z UCL opracował ideę czapki-niewidki stworzonej z metamateriałów. Teraz zespół pracujący pod kierunkiem profesora Martina McCalla matematcznie rozszerzył pomysł Pendry'ego na ukrywanie całych zdarzeń, a nie tylko obiektów. Światło zwalnia gdy wnika w materiał. Jednak teoretycznie możliwe jest manipulowanie promieniami światła tak, by niektóre przyspieszały, a inne zwalniały - mówi McCall. Twierdzi on, że w ten sposób można spowodować, iż część światła dotrze do obserwatora przed zdarzeniem, a część się znacznie spóźni. W efekcie przez krótki czas wydarzenie nie będzie oświetlone i nie będziemy mogli go obserwować. To z kolei prowadzi do teoretyczej możliwości niezauważalnej dla obserwatora manipulacji energię, informacją i materią. Jak mówi McCall, gdy będziemy obserwowali osobę poruszającą się korytarzem, sprawi to na nas takie wrażenie, jakby używała ona znanego ze StarTreka transportera, gdyż nagle pojawi się w innym miejscu, niż była jeszcze przed chwilą. Teoretycznie osoba ta mogłaby zrobić coś, czego obserwator nie dostrzeże. Ukrywanie poruszających się ludzi to wciąż jedynie wizja z dziedziny science-fiction, jednak model zespołu McCalla może znaleźć praktyczne zastosowanie w optyce czy elektronice. Doktor Paul Kinsler opracował już prototypową architekturę dla łączy optycznych i układów logicznych, która korzysta z koncepcji McCalla. Pomysł Kinslera zakłada, że przesył danych mógłby zostać zatrzymany w celu przeprowadzenia obliczeń, których wyniki powinny dotrzeć wcześniej. Z punktu widzenia innych części układu scalonego czy sieci przetwarzanie informacji wyglądałoby na ciągłe. Uzyskano by w ten sposób "przerwanie bez przerwania". Alberto Favaro, jeden z członków zespołu badawczego, wyjaśnia to w ten sposób: wyobraźmy sobie kanał przesyłu danych komputerowych jako autostradę pełną samochodów. Chcemy, by przez autostradę przeszedł pieszy, ale by nie prowadziło to do zatrzymania ruchu. Spowalniamy więc samochody znajdujące się przed przejściem, a te, które są na nim i za nim, przyspieszamy. Tworzymy w ten sposób przerwę, którą pieszy może przejść. W tym samym czasie obserwator stojący na dalszym odcinku autostrady nie zauważy niczego oprócz płynnie poruszających się samochodów. Uczeni, tworząc swoją koncepcję, musieli zmierzyć się z problemem przyspieszenia przesyłanych danych bez naruszania praw teorii względności. Favaro poradził sobie z tym, projektując teoretyczny materiał, którego właściwości zmieniają się w czasie i przestrzeni. Jesteśmy pewni, że koncepcja czasoprzestrzennej czapki-niewidki otwiera przed nami wiele różnych możliwości. Jednak na obecnym etapie to praca czysto teoretyczna i musimy dopracować szczegóły potencjalnych zastosowań - mówi McCall.
  13. NASA odkryła najmłodszą czarną dziurę w naszym sąsiedztwie. Widzimy ją w momencie, gdy miała zaledwie 30 lat i daje niepowtarzalną okazję do obserwowania rozwoju czarnej dziury od samych jej poczatków. Czarna dziura jest to pozostałość po SN 1979C, supernowej znajdującej się w galaktyce M100, położonej w odległości około 50 milionów lat od Ziemi. Obiekt obserwowano w latach 1995-2007, a obecnie naukowcy, po interpretacji danych, doszli do wniosku, że mamy do czynienia z czarną dziurą. Supernowa SN 1979C została odkryta w 1979 przez astronoma amatora. Jest ona pozostałością po gwieździe 20-krotnie cięższej od Słońca. W dalszej odległości od Ziemi odkryto wiele czarnych dziur, jednak ta, o której obecnie mowa, jest wyjątkowym obiektem. Znajduje się ona bowiem znacznie bliżej naszej planety niż inne czarne dziury i nie jest związana z rozbłyskiem gamma. Jak mówi Abraham Loeb z Harvard-Smithsonian Center for Astrophysics, tego typu czarne dziury trudno jest odkryć, gdyż można je zauważyć dopiero po wielu latach obserwacji za pomocą teleskopów działających na promienie X.
  14. Kiedyś miasta oświetlały latarnie gazowe, olejowe czy naftowe, potem elektryczne, teraz przyszedł, być może, czas na żywe latarnie z drzew. Tajwańscy badacze odkryli bowiem, że wprowadzenie do liści nanocząstek złota powoduje, że nocą emitują one czerwonawe światło. Na to, że nanocząstki złota mogą wywoływać luminescencję liści, wpadł dr Yen-Hsun Su z Centrum Badawczego Nauk Stosowanych na Academia Sinica. Jego artykuł ukazał się w piśmie Nanoscale. Diody LED zastąpiły tradycyjne źródła światła w wielu wyświetlaczach i ulicznych latarniach. Sporo emitujących światło diod wykorzystuje do uzyskania różnych długości fal luminescencyjny proszek [luminofor]. Jest on jednak wysoce toksyczny i drogi. Stąd pomysł doktora Yen-Hsun Wu, by wynaleźć metodę zastąpienia go czymś bezpieczniejszym – opowiada prof. Shih-Hui Chang. Tajwańczycy umieścili nanocząstki złota w liściach bakopy karolińskiej (Bacopa caroliniana), która jest popularną rośliną akwariową, ponieważ w naturze występuje na bagnach i dobrze rośnie w półzanurzeniu. Oświetlenie ultrafioletem prowadziło do niebiesko-fioletowej fluorescencji nanocząstek, a w konsekwencji do emisji czerwonawego światła przez otaczający chlorofil. W wywiadzie udzielonym pismu Chemistry World Yen-Hsun Su roztacza interesującą wizję przyszłości. Bio-LED-y z roślin oświetlają w niej drogi, co prowadzi do ograniczenia zanieczyszczenia światłem sztucznym, a dodatkowo spadku zanieczyszczenia dwutlenkiem węgla. Nie tylko nie trzeba bowiem korzystać z elektryczności, ale i biodiody nadal przeprowadzają fotosyntezę w swoich chloroplastach. Profesorowie Wei-Min Zhang i Shih-Hui Chang oraz doktor Yen-Hsun Su zaznaczają, że technologię i efektywność bioluminescencji trzeba jeszcze poprawić.
  15. W procesorach AMD odkryto tajny debugger, stosowany w nich od około 10 lat. Na jego ślad wpadł hacker o pseudonimie Czernobyl, specjalizujący się w łamaniu zabezpieczeń sprzętowych. Procesory AMD (Athlon XP i nowsze) zawierają debugger bazujący na firmware, który znacznie wykracza poza standardowe, określone architekturą możliwości x86 - napisał Czernobyl. Aby dostać się do debuggera konieczna jest znajomość hasła, które należy wprowadzić do rejestru EDI procesora. Hacker wydedukował obecność debuggera przeglądając spis nieudokumentowanych rejestrów procesorów AMD Athlon. Później użył metody brute-force do złamania hasła dostępu. Najprawdopodobniej debugger jest używany przez AMD podczas projektowania układów i jest wyłączany przed sprzedażą procesora. Jego odkrycie oznacza, że możliwe będzie wykonanie inżynierii wstecznej procesorów AMD. Na razie jednak jest zbyt wcześnie by osądzić, jakie jeszcze możliwości daje debugger.
  16. Specjaliści z Symanteka dokładnie określili mechanizm działania robaka Stuxnet i jego cele. Okazało się, że jego celem było atakowanie specyficznego typu silników, używanych m.in. w procesie wzbogacania uranu. Zadaniem Stuxneta było manipulowanie częstotliwością konwerterów i wpływanie przez to na prędkość pracy silnika. Stuxnet atakował komputery zawierające procesory S7-300. Pojedynczy robak był w stanie kontrolować do sześciu modułów komunikacyjnych CP-342-5 firmy Profibus, z których każdy można połączyć z 31 konwerterami częstotliwości. Co więcej, Stuxnet atakował konwertery tylko konkretnych producentów. Jednego z Finlandii i jednego z Iranu. Częstotliwość ich pracy wynosi od 807 do 1210 herców. Dokonując niewielkich zmian na przestrzeni wielu miesięcy Stuxnet mógł sabotować proces wzbogacania uranu. Zarówno fakt atakowania dwóch specyficznych producentów oraz wysoką częstotliwość pracy konwerterów, które mogą paść ofiarami Stuxneta, zawęża pole poszukiwania faktycznego celu robaka. Wiadomo na przykład, że takie konwertery to bardzo specyficzne urządzenia i np. w USA eksport konwerterów pracujących z częstotliwością 600 Hz jest nadzorowany przez Komisję Atomistyki, gdyż mogą być one użyte do wzbogacania uranu. Specjaliści Symanteka przyznają, że nie są ekspertami od przemysłowych systemów kontroli i nie wiedzą, gdzie jeszcze, poza wzbogacaniem uranu, stosuje się podobne konwertery.
  17. Stu naukowców z londyńskiego Muzeum Historii Naturalnej zrezygnowało z wyprawy w odległe rejony Paragwaju. Przekonały ich protesty w obronie Indian Ayoreo. Są oni jednym z najbardziej dziewiczych plemion na świecie. Ponieważ prawie nie mieli kontaktów ze światem zewnętrznym, kontakt z patogenami z naszej części świata mógłby ich zabić. Mając to na uwadze, badacze z muzeum nie wybiorą się na razie do Gran Chaco, gdzie mieli prowadzić poszukiwania nowych gatunków roślin i zwierząt. Ekspedycja została odroczona w czasie. Obecnie trwają rozmowy paragwajskiego Ministerstwa Środowiska z reprezentantami tubylców. Samo muzeum podkreśla, że badanie bioróżnorodności suchej zachodniej części opisywanego regionu (Alto Chaco) jest bardzo ważne, by móc właściwie chronić ten wyjątkowy ekosystem. Gran Chaco to jedyny obszar Ameryki Południowej poza Amazonią, gdzie żyją dziewicze plemiona. Wg antropologów, ok. 100 Ayoreo, podzielonych na 6 lub 7 grup osadniczych, nadal prowadzi tradycyjny myśliwsko-zbieraczy tryb życia. Nie chcą oni utrzymywać kontaktów ze światem zewnętrznym. Reszta (w 2007 r. szacowano, że językiem ayoreo posługuje się 3070 ludzi) opuściła rodzinne strony wskutek przetrzebienia roślinności przez rolników i pasterzy.
  18. Badanie na lekach sprzedawanych bez recepty ujawniło, że aż ¾ ludzi woli czerwone i różowe tabletki, ponieważ ich barwa przypomina o konieczności oraz schemacie ich zażywania (International Journal of Biotechnology). Już wcześniejsze studia wykazały, że na postrzeganie działania pigułek wpływa nie tylko nazwa, ale i kilka cech fizycznych, np. wielkość, kształt i smak. Wydaje się, że wystarczy wybrać właściwą kombinację, by dzięki efektowi placebo lekarstwo działało mocniej, dawało lepsze rezultaty i wywoływało mniej skutków ubocznych. W najnowszym eksperymencie zespół R.K. Srivastavy z Uniwersytetu w Bombaju sprawdzał, jak barwa oddziałuje na wybory klientów aptek. Sonda przeprowadzona wśród 600 osób wykazała, że czerwień i róż są traktowane jak "przypominacze". Poza tym okazało się, że dla 14% ankietowanych pigułki różowe są słodsze od czerwonych, a żółte wydają się słone, bez względu na rzeczywisty skład. Poza tym akademicy z Bombaju zademonstrowali, że dla 11% respondentów białe i niebieskie tabletki są gorzkie, a 10% odbiera pomarańczowe proszki jako kwaśne. Czerwone tabletki preferowało 2-krotnie więcej osób w średnim wieku niż młodszych, częściej wybierały je też kobiety niż mężczyźni. Za każdym razem, gdy pacjent aplikuje sobie lek, bez względu na to, czy jest to połknięcie kapsułki czy tabletki, żucie pastylki, przełknięcie płynu czy smarowanie kremem lub maścią, jego udziałem staje się doświadczenie zmysłowe. Rytuał angażujący percepcję może silnie wpływać na postrzeganie skuteczności przez chorego. Stąd pomysł ekipy Srivastavy, by pozytywne doświadczenia, niezwiązane z medycznymi właściwościami preparatu, uzupełniały i poprawiały jego działanie. Dotąd nie zwracano właściwie uwagi na pozafarmaceutyczne cechy leku.
  19. Krukowate potrafią odróżnić na zdjęciach twarze kobiet i mężczyzn. Nawet jeśli nie jest to wrodzona umiejętność, z pewnością uczą się tej sztuki z dużą łatwością. W serii przeprowadzonych w Japonii eksperymentów wzięły udział 4 wrony wielkodziobe (Corvus macrorhynchos). Są one gatunkiem krukowatych, który występuje licznie w Azji, czym zapewne podyktowany był wybór Bezawork Afework, doktorantki etiopskiego pochodzenia z United Graduate School of Agricultural Science na Tokijskim Uniwersytecie Rolnictwa i Technologii. Najpierw naukowcy pokazywali ptakom zestaw kolorowych zdjęć ludzi z zakrytymi włosami. Potem dwie wrony ćwiczono we wskazywaniu twarzy kobiet, a pozostałą parę w rozpoznawaniu fizjonomii męskich. Gdy zwierzę dokonywało właściwego wyboru, dostawało w nagrodę kawałek sera. Kiedy dodawano nowe twarze kobiet/mężczyzn i zmieniano położenie twarzy, 3 z 4 ptaków wybierały właściwe zdjęcia ze 100-procentową trafnością, a czwarta wrona wielkodzioba trafiała w siedmiu przypadkach na dziesięć. Ponieważ miejskie populacje C. macrorhynchos bardzo szybko się powiększają, odkrycia te mogą się przydać w opracowywaniu nowych metod odstraszania tych ptaków.
  20. Czy lepsza jest karta kredytowa obciążona 1% odsetek, czy 0% odsetek? Logika podpowiada, że ta druga, ale... klienci będą woleć pierwszą. Mauricio Palmeira z Australii pokazuje, jak nasza zdolność porównywania „głupieje" w obliczu zera. Wydaje się dość logiczne, że dla konsumenta tym lepiej, im więcej czegoś gratis. Albo im mniej musi zapłacić. Ale pod warunkiem, że to mniej to nie zero. Badanie przeprowadzone na australijskim Monash University demaskuje tę dziwną, sprzeczną z intuicją, właściwość naszego rozumowania. Zdaniem Mauricio Palmeiry tłumaczy to, choć nie do końca, nasz wrodzony sposób porównywania, czyli branie pod uwagę różnicy względnej, a nie bezwzględnej. Przykładowo, jeśli klient ma do wyboru kartę kredytową kosztującą 45 dolarów rocznie, obciążoną odsetkiem 1%, a kartę kosztującą 15 dolarów, ale z odsetkami 20%, to wybiera dodatkowe trzydzieści dolarów opłaty w zamian za odsetki mniejsze o 19 punktów procentowych. Ale jeśli wybierać będzie pomiędzy kartą kosztującą 115 dolarów lub 145 dolarów, to różnica między nimi, choć nadal wynosząca 30$, będzie się wydawać mniejsza, wpływając na decyzję. Dlatego 1% odsetek wydaje się dużo bardziej atrakcyjny niż 20% - to aż dwadzieścia razy mniej! Ale co będzie, gdy zaoferujemy kartę bez odsetek? Czy będzie ona jeszcze bardziej atrakcyjna? Otóż nie, bo ile razy 0% mniejsze jest niż 20%? Tutaj zawodzą nasze wrodzone umiejętności matematyczne. Zero eliminuje po prostu naszą skalę odniesienia. Podobnie sprawa ma się choćby z produktami 0% tłuszczu - wbrew intuicji nie brzmią one tak dobrze, jak choćby ten marny 1% tłuszczu. Z taką wiedzą specjaliści od marketingu mogą oferować mniej korzystne bonusy, które brzmieć będą atrakcyjniej, a mniej skłonny do liczenia i analizowania klient da się „nabrać". Studium opublikowano w Journal of Consumer Research.
  21. Homeopatia, przez jednych wychwalana, przez racjonalistów jest wyśmiewana, jako metoda nie mogąca działać. Angielscy naukowcy dowiedli jednak, a potem jeszcze potwierdzili, że lekarz homeopata faktycznie może pomóc choremu. Ale... właśnie lekarz, a nie lekarstwo! Homeopatia, czyli „leczenie podobnym" polegać ma na podawaniu choremu środków, wywołujących efekty podobne do leczonej choroby, ale w bardzo małym stężeniu. Według homeopatów mechanizm takiego leczenia polega na mobilizowaniu własnych środków obronnych organizmu, czyli na zasadzie podobnej do szczepionek. Brzmi to rozsądnie, ale kłopot w tym, że stosowane leki homeopatyczne są tak rozcieńczane, że... w ogóle nie zawierają aktywnej substancji, która miałaby działać. Próby tłumaczenia schodzą zatem na teren pozanaukowy. Mimo to naukowcy nie byliby naukowcami, gdyby nie podejmowali prób sprawdzenia również rzeczy sprzecznych z logiką i obecnym stanem nauki. Zespół uczonych z angielskiego University of Southampton wykonał jakiś czas temu badania, które stwierdziły, że terapia homeopatyczna rzeczywiście poprawia stan chorych na reumatyzm. Nowsze studium, mające na celu weryfikację poprzedniego, ujawniło nieco zaskakującą tajemnicę skuteczności hemopatii. Do badań wybrano 83 osoby chorujące na reumatoidalne zapalenie stawów, leczące się w klinikach w miejscowościach Southampton, Poole i Winchester. Każdy z pacjentów, podczas trwającego 24 tygodnie studium, przechodził serię konsultacji u homeopaty, oczywiście kontynuując tradycyjne leczenie. Zarówno lekarze, jak i pacjenci raportowali poprawę stanu zdrowia: zmniejszony ból i obrzęk stawów oraz lepszy nastrój i większą ruchliwość. Dokładna analiza zaskoczyła jednak przyczyną tej poprawy zdrowia: było nią nie leczenie preparatami homeopatycznymi, lecz same dodatkowe konsultacje. Autorzy studium, zamieszczonego w periodyku Rheumatology, tłumaczą to innym podejściem do pacjenta, podczas kiedy lekarz medycyny tradycyjnej koncentruje się na leczeniu choroby, homeopata skupia się na leczeniu pacjenta. W planach są kolejne badania, które mają odpowiedzieć na pytanie, czy takie dodatkowe konsultacje są uzasadnione ekonomicznie, a także jakie dokładnie ich elementy sprzyjają polepszeniu stanu pacjenta i czy dałoby się je włączyć do tradycyjnego leczenia.
  22. W Stanach Zjednoczonych powstają dwa niezwykle wydajne superkomputery. Obie maszyny mają osiągnąć wydajność 20 petaflopsów i mogą trafić na listę TOP500 w czerwcu 2012 roku. Obecnie najbardziej wydajny superkomputer to chiński Tianhe-1A, który jest w stanie wykonać 2,566 petaflopa w ciągu sekundy. Pierwszy z superkomputerów powstaje w Oak Ridge National Laboratory (ORNL), które obecnie jest w posiadaniu m.in. maszyny Jaguar, drugiego pod względem wydajności superkomputera. Komputer o podobnej mocy buduje też IBM na zlecenie Lawrence Livermore National Laboratory. Ma on zostać dostarczony zamawiającemu już w przyszłym roku, a pełną moc osiągnie w roku 2012. Obecnie jest zbyt wcześnie, by wyrokować, czy powstające amerykańskie maszyny obejmą prowadzenie na liście TOP500. Superkomputery to niezwykle przydatne narzędzia badawcze i bardzo interesują się nimi Chiny. Amerykańscy eksperci twierdzą, że Państwo Środka ma ambicję budowy superkomputera opartego wyłącznie na rodzimej technologii i może zrealizować ten cel w ciągu 12-18 miesięcy. Specjaliści przypuszczają, że projektowana maszyna ma charakteryzować się mocą ponad 1 PFlops. Wiadomo, że Chińczycy już używają własnej technologii. Najpotężniejszy superkomputer świata Tianhe-1A korzysta przede wszystkim z układów Intela oraz Nvidii, ale zastosowano w nim również procesory FeiTeng-1000. To 8-rdzeniowe układy korzystające z architektury Sparc. Są one wykorzystywane do zarządzania węzłami superkomputera. Wiadomo też, że Chiny dysponują własnymi technologiami przesyłu danych szybszymi od otwartego InfiniBand. Wciąż jednak nie dorównują one wydajnością zamkniętym standardom oferowanym przez amerykańskie firmy. Jeremy Smith, dyrektor Centrum Biofizyki Molekularnej w ORNL mówi, że bardzo cieszy go konkurencja, gdyż zwiększające się zainteresowanie superkomputerami przyczynia się do ich rozwoju. W konkurencji z innymi krajami wszyscy wygrywają - dlatego bardzo mi się to podoba - mówi Smith. Jak wspomina, gdy w roku 2002 pojawił się japoński Earth Simulator zaszokował on środowisko, a National Research Council w swoim raporcie stwierdził, że był to dzwonek alarmowy, pokazujący, iż możemy nie tylko stracić przewagę nad konkurencją, ale również, co ważniejsze, zdolność do osiągnięcia własnych celów. Naukowcy z niecierpliwością czekają na pojawienie się komputerów pracujących w eksaskali. Maszyna o wydajności 1 eksaflopsa będzie wykonywała w ciągu sekundy trylion (1018) operacji zmiennoprzecinkowych. To dla nauki oznacza skok jakościowy. System eksaskalowy pozwoli bowiem na dokładne symulowanie pojedynczej komórki. Każdy atom będzie tam reprezentowany - mówi Smith. To z kolei będzie miało kolosalne znaczenie dla rozwoju medycyny, biologii i nauk pokrewnych. Pierwsze systemy eksaskalowe mogą pojawić się jeszcze przed rokiem 2020.
  23. Udostępniono najnowszą listę TOP500 - zestawienie 500 najpotężniejszych superkomputerów na świecie. Jak już wcześniej pisaliśmy, na czele listy po raz pierwszy od lat znalazł się superkomputer spoza Stanów Zjednoczonych. Chińska maszyna Tianhe-1A charakteryzuje się wydajnością 2,566 PFlops. Wykorzystuje ona procesory Intel Xeon X5670 oraz GPU Nvidii. Na drugim miejscu znalazł się amerykański Jaguar o wydajności niemal 1,8 petaflopsa. Trzecie miejsce przypadło chińskiemu superkomputerowi Nebulae (1,247 PFlops), czwarte japońskiemu Tsubame (1,192 PFlops), a piąte amerykańskiemu Hooperowi (1,054 PFlops). Wśród komputerów, które przekroczyły petaflops znalazły się też francuski Tera-100 (1,050 PFlops) oraz amerykański Roadrunner (1,042 PFlops). Wśród 10 najpotężniejszych supermaszyn pięć znajduje się w USA, dwa pochodzą z Chin, a po jednym z Japonii, Francji i Niemiec. Najwięcej komputerów na TOP500 umieściły, jak zwykle, USA. Z kraju tego pochodzą aż 274 maszyny. Na drugim miejscu, z 41 superkomputerami, uplasowały się Chiny. Jeszcze przed rokiem Państwo Środka miało na liście 21 maszyn, co dawało mu dopiero 5. pozycję. Po 26 superkomputerów pochodzi z Francji, Niemiec i Japonii, a Wielka Brytania, która przed rokiem zajmowała 2. miejsce, obecnie spadła na 4. pozycję z 25 maszynami. Najwięcej superkomputerów - 398 - korzysta z układów Intela. W tym 392 używa architektury EM64T, 5 maszyn korzysta z IA-64 a jedna z architektury Core. Procesorów AMD używa 57 superkomputerów. Wszystkie korzystają z architektury x86_64. Kolejne 40 maszyn wykorzystuje architekturę Power. Najpopularniejszą rodziną systemów operacyjnych instalowanych na superkomputerach pozostaje Linux. Używany jest na 459 maszynach. System spod znaku pingwina zwiększa swoją popularność kosztem Uniksa. Ten z kolei jest wykorzystywany na 19 superkomputerach. Pięć maszyn używa systemu Windows, a 16 maszyn korzysta z systemów mieszanych.
  24. Jak załatać mikropęknięcia w betonie? Nie jest to łatwe ani tanie, tym ważniejsze wydaje się więc nowatorskie rozwiązanie zaproponowane przez zespół studentów z Newcastle University – zmodyfikowane genetycznie bakterie, które produkują w takich razach coś na kształt kleju. Kiedy dojdzie do uszkodzenia, mikroby migrują na sam dół szczeliny. Gdy już się tam znajdą, wytwarzają mieszaninę węglanu wapnia oraz kleju bakteryjnego. Wszystko to łączy się w całość z koloniami komórek bakteryjnych (filamentami), tak że ostateczna wytrzymałość miniłaty jest taka sama jak otaczającego materiału. Wg wynalazców i ich opiekunki dr Jennifer Hallinan, BacillaFilla, bo taką nazwę nadano niby-klejowi, jest doskonałym rozwiązaniem w przypadku remontów/napraw struktur, których budowa była bardzo kosztowna dla środowiska. Około 5% związanej z działalnością człowieka emisji dwutlenku węgla pochodzi z produkcji betonu, czyniąc z niego jeden z głównych elementów przyczyniających się do globalnego ocieplenia. Sensowne wydaje się zatem zabieganie o przedłużenie przydatności już raz wyprodukowanego betonu. Zaprezentowana na organizowanym przez MIT międzynarodowym konkursie naukowym International Genetically Engineered Machines (iGEM) metoda będzie nieoceniona w strefach trzęsień ziemi, gdzie przy obecnie dostępnych technologiach wiele budynków trzeba po prostu wyburzać. Młodzi naukowcy nie tylko oceniali użyteczność zmodyfikowanych bakterii, ale i potencjalne zagrożenia środowiskowe. Okazało się, że spory BacillaFilla zaczynają kiełkować tylko w kontakcie z betonem – germinację wyzwala specyficzne pH materiału. Poza tym wbudowano w nie gen samozniszczenia, który uniemożliwia przeżycie w innym środowisku. Po wykiełkowaniu bakterie udają się do strefy pęknięcia. Wskutek zbijania się w masę wyczuwają, kiedy znajdą się na dnie. Nagromadzenie aktywuje proces naprawczy. Komórki różnicują się w 3 typy: 1) komórki produkujące kryształy węglanu wapnia, 2) komórki tworzące filament (zostają one połączone specjalnymi porami, które umożliwiają silniejsze związanie i polepszają transport) oraz 3) komórki wytwarzające klej Levansa.
  25. Doktor Bruno Michel z IBM Zurich twierdzi, że w ciągu kilkunastu lat mogą powstać superkomputery wielkości... kostki cukru. Będzie to możliwe dzięki nowemu podejściu do projektowania komputerów, które umożliwi układanie procesorów jeden na drugim. Układy będą chłodzone wodą przepływającą pomiędzy nimi. Architektura, nad którą pracuje IBM, nie ma jednak na celu zmniejszanie wielkości superkomputerów, a zbudowanie energooszczędnych maszyn. Obecnie około 2% światowego zużycia energii przypada na sprzęt komputerowy. Zdaniem Michela, w przyszłości musimy skupić się nie na zwiększaniu mocy komputerów a na zmniejszaniu przez nie zużycia energii. Michel wraz z zespołem zaprezentowali prototypowy system Aquasar. Rozmiarami przekracza on znacznie kostkę cukru, gdyż jest większy od lodówki. Jednak Aquasar zużywa o niemal 50% mniej energii niż najbardziej wydajne superkomputery. Jak zauważył Michel, w przeszłości podstawowym problemem były ceny sprzętu. Przed 50 lat pojedynczy tranzystor kosztował dolara. Obecnie koszty produkcji pojedynczego tranzystora są stukrotnie mniejsze od kosztów wydrukowania pojedynczego znaku na papierze. Tak znaczący spadek cen spowodował, że koszty nie są już przeszkodą na drodze do powstania superkomputerów przyszłości. Tym, co martwi specjalistów, są koszty energii potrzebnej mu do pracy. Michel przewiduje, że w przyszłości koszty operacyjne centrum bazodanowego będą wyższe niż koszty jego budowy. A do gwałtownego wzrostu zapotrzebowania na energię przyczynia się konieczność chłodzenia systemów komputerowych. Dlatego też coraz większą wagę przywiązuje się do zużycia energii. Obecnie najbardziej wydajne superkomputery są w stanie wykonać około 770 milionów operacji na sekundę zużywając przy tym 1 wat mocy. Aquasar zużywa 1 wat wykonując 1,1 miliarda operacji na sekundę. System jest jednak dość duży, dlatego też Michel i jego zespół pracują nad jego zmniejszeniem. "Obecnie zbudowaliśmy system Aquaser, który składa się z szafy pełnej procesorów. Planujemy, że za 10-15 lat zmniejszymy go do rozmiarów kostki cukru" - mówi Michel. Przed naukowcami piętrzą się jednak poważne problemy. Samo dostarczenie danych do miejsca, gdzie są one używane do przeprowadzenia obliczeń wymaga 1000-krotnie więcej energii niż jest zużywane podczas liczenia. Ponadto samo przesyłanie danych jest głównym czynnikiem opóźniającym wszelkie operacje logiczne. Systemy muszą być zatem chłodzone nie tylko tam, gdzie odbywają się obliczenia, ale również i tam, gdzie przesyłane są dane. Zapewnianie odbioru ciepła jest niezwykle skomplikowaną operacją. Jak mówi Michel, układ składający się z 1 miligrama tranzystorów wymaga obecnie urządzeń chłodzących o wadze 1 kilograma. Potrzebne jest zatem nowe podejście do kwestii przesyłania danych, obliczeń i chłodzenia. Im większy dystans dzieli układy, tym więcej energii jest zużywane i tym więcej ciepła wydzielane. Rozwiązaniem problemu byłoby układanie procesorów na sobie. Taka architektura wymaga jednak opracowania nowych systemów chłodzących.
×
×
  • Dodaj nową pozycję...